lunes, 26 de abril de 2010

SEGMENTACION MEDIANTE ROUTERS



Los routers son más avanzados que los puentes. Un puente es pasivo (transparente) en la capa de red y funciona en la capa de enlace de datos. Un router funciona en la capa de red y basa todas sus decisiones de envío en la dirección de protocolo de Capa 3. El router logra esto examinando la dirección destino del paquete de datos y buscando las instrucciones de envío en la tabla de enrutamiento (ya lo veremos mas adelante). Los routers producen el nivel más alto de segmentación debido a su capacidad para determinar exactamente dónde se debe enviar el paquete de datos.
Como los routers ejecutan más funciones que los puentes, operan con un mayor nivel de latencia. Los routers deben examinar los paquetes para determinar la mejor ruta para enviarlos a sus destinos. Inevitablemente, este proceso lleva tiempo e introduce latencia (retardo).

ETHERNET CONMUTADA






La topología de Ethernet descripta hasta ahora ha sido la de Ethernet compartida (cualquier mensaje transmitido es escuchado por todos los equipos conectados y el ancho de banda disponible es compartido por todos los equipos).
Durante muchos años se ha dado un desarrollo importante: la Ethernet conmutada. La topología física sigue siendo la de una estrella pero está organizada alrededor de un conmutador. El conmutador usa mecanismos de filtrado y conmutación muy similares a los utilizados por las puertas de enlace donde se han utilizado estas técnicas por mucho tiempo.

Al conocer el puerto receptor, el conmutador sólo transmitirá el mensaje al puerto adecuado mientras que los otros puertos permanecerán libres para otras transmisiones que pueden ser realizadas simultáneamente.

Con respecto a saber si todos los puertos de un conmutador pueden comunicarse al mismo sin perder los mensajes, eso es algo que depende de la calidad del conmutador (non blocking switch).
Dado que los conmutadores posibilitan evitar colisiones y que las tecnologías 10/100/1000 base T(X) cuentan con circuitos separados para la transmisión y la recepción.

Los conmutadores Ethernet modernos también detectan la velocidad de transmisión que cada equipo utiliza (autosensing) y si el equipo admite varias velocidades (10, 100 o 1000 megabits/seg.) comienza a negociar con él para seleccionar tanto una velocidad como el modo de transmisión: semi dúplex o full dúplex. Esto permite contar con un almacenamiento de equipos con distintos rendimientos (por ejemplo, un conjunto de equipos con varias configuraciones hardware).


SEGMENTACION MEDIANTE SWITCHES

Una LAN que usa una topología Ethernet crea una red que funciona como si sólo tuviera dos nodos el nodo emisor y el nodo receptor. Estos dos nodos comparten un ancho de banda de 100 Mbps, lo que significa que prácticamente todo el ancho de banda está disponible para la transmisión de datos. Una LAN Ethernet permite que la topología LAN funcione más rápida y eficientemente que una LAN Ethernet estándar, ya que usa el ancho de banda de modo muy eficiente. En esta implementación Ethernet, el ancho de banda disponible puede alcanzar casi un 100%.

Es importante observar que aunque 100% del ancho de banda puede estar disponible, las redes Ethernet tienen un mejor rendimiento cuando se mantiene por debajo del 30-40% de la capacidad total. El uso de ancho de banda que supere el límite recomendado tiene como resultado un aumento en la cantidad de colisiones (saturación de información). El propósito de la conmutación de LAN es aliviar las insuficiencias de ancho de banda y los cuellos de botella de la red como, por ejemplo, los que se producen entre un grupo de PC y un servidor de archivos remoto. Un switch LAN es un puente multipuerto de alta velocidad que tiene un puerto para cada nodo, o segmento, de la LAN. El switch divide la LAN en microsegmentos, creando de tal modo segmentos mas aliviados de tráfico.


Cada nodo está directamente conectado a uno de sus puertos, o a un segmento que está conectado a uno de los puertos del switch. Esto crea una conexión de 100 Mbps entre cada nodo y cada segmento del switch. Un ordenador conectado directamente a un switch Ethernet está en su propio dominio de colisión y tiene acceso a los 100 Mbps completos. Cuando una trama entra a un switch, se lee para obtener la dirección origen o destino. Luego, el switch determina cuál es la acción de transmisión que se llevará a cabo basándose en lo que sabe a partir de la información que ha leído en la trama. Si la dirección destino se encuentra ubicada en otro segmento, la trama se conmuta a su destino.

domingo, 25 de abril de 2010

SEGMENTACION


La segmentación (en inglés pipelining, literalmente tuberia o cañeria) es un método por el cual se consigue aumentar el rendimiento de algunos sistemas electrónicos digitales. Es aplicado, sobre todo, en microprocesadores. El nombre viene de que para impulsar el gas en un oleoducto a la máxima velocidad es necesario dividir el oleoducto en tramos y colocar una bomba que dé un nuevo impulse al gas. El símil con la programación existe en que los cálculos deben ser registrados o sincronizados con el reloj cada cierto tiempo para que la ruta crítica (tramo con más carga o retardo computacional entre dos registros de reloj) se reduzca.

La segmentación consiste en descomponer la ejecución de cada instrucción en varias etapas para poder empezar a procesar una instrucción diferente en cada una de ellas y trabajar con varias a la vez.
En el caso del procesador DLX podemos encontrar las siguientes etapas en una instrucción:
IF: búsqueda
ID: decodificación
EX: ejecución de unidad aritmético lógica
MEM: memoria
WB: escritura
Cada una de estas etapas de la instrucción usa en exclusiva un hardware determinado del procesador, de tal forma que la ejecución de cada una de las etapas en principio no interfiere en la ejecución del resto.
En el caso de que el procesador no pudiese ejecutar las instrucciones en etapas segmentadas, la ejecución de la siguiente instrucción sólo se podría llevar a cabo tras la finalización de la primera. En cambio en un procesador segmentado, salvo excepciones de dependencias de datos o uso de unidades funcionales, la siguiente instrucción podría iniciar su ejecución tras acabar la primera etapa de la instrucción actual.


CSMA/CD y las Colisiones


Cuando dos estaciones trasmiten, y se sobreponen sus trasmisiones, hay una COLISION y las estaciones deben de retrasmitir la señal. Este principio lo retomo CSMA/CD. Aqui lo que se hace es sensar el medio fisico(el cable) y "mirar" cuando puedo entrar(o sea cuando puedo transmitir). Esto es el Carrier Sense, o sea mirar si hay una portadora sobre el medio. Si no hay portadora puedo trasmitir, pero puede ocurrir que alguna estacion ya halla trasmitido y por retardo en la red algun equipo(en un extremo por ejemplo) no se haya dado cuenta. Si el equipo que no se ha enterado trasmite, existira una colision.

Cuando la colision es detectada, ambos equipos dejan de trasmitir, e intentaran trasmitir de nuevo en un tiempo aleatorio, que dependera del tipo de Persistencia de CSMA/CD.
La aletoriedad del tiempo se incrementa de forma binaria exponencial. A este proceso de deneterse y volver a intentar se le llama Backoff. El backoff es realizado 6 veces, y si no se logra trasmitir el paquete, el envio se descarta. Por esto en Ethernet puede existir perdida de paquetes.

Ethernet usa el método de transmisión CSMA/CD

CSMA/CD, es el acronimo de Carrier Sense Multiple Acces/Collision Detect. Esto quiere decir que Ethernet sensa el medio para saber cuando puede acceder, e igualmente detecta cuando sucede una colision(p.e. cuando dos equipos trasmiten al mismo tiempo).

En una configuración Ethernet, los equipos están conectados mediante cable coaxial o de par trenzado ("Twisted-pair") y compiten por acceso a la red utilizando un modelo denominado CSMA/CD ("Carrier Sense Multiple Access with Collision Detection"). Inicialmente podía manejar información a 10 Mb/s, aunque actualmente se han desarrollado estándares mucho más veloces.

Ethernet e IEEE 802.3


La primera versión fue un intento de estandarizar ethernet aunque hubo un campo de la cabecera que se definió de forma diferente, posteriormente ha habido ampliaciones sucesivas al estándar que cubrieron las ampliaciones de velocidad (Fast Ethernet, Gigabit Ethernet y el de 10 Gigabits), redes virtuales, hubs, conmutadores y distintos tipos de medios, tanto de fibra óptica como de cables de cobre (tanto par trenzado como coaxial).

Los estándares de este grupo no reflejan necesariamente lo que se usa en la práctica, aunque a diferencia de otros grupos este suele estar cerca de la realidad.

INTERFAZ DE DATOS DISTRIBUIDA POR FIBRAS FDDI


La FDDI o Interfaz de Datos Distribuidos por Fibra (Fiber Distributed Data Interface), es una interfaz de red en configuración de simple o doble anillo, con paso de testigo, que puede ser implementada con fibra óptica, cable de par trenzado apantallado (STP-Shielded Twisted Pair), o cable de par trenzado sin apantallar (UTP-Unshielded Twisted Pair).
La tecnología FDDI permite la transmisión de los datos a 100 Mbps., según la norma ANSI X3T9.5, con un esquema tolerante a fallos, flexible y escalable.
Esta norma fue definida, originalmente, en 1982, para redes de hasta 7 nodos y 1 Km. de longitud, denominada como LDDI (Locally Distributed Data Interface). Sin embargo, en 1986 fue modificada y publicada como borrador de la norma actual, e inmediatamente aprobada, apareciendo los primeros productos comerciales en 1990.
El estándar FDDI especifica un troncal de fibra óptica multimodo, que permite transportar datos a altas velocidades con un esquema de conmutación de paquetes y paso de testigo en intervalos limitados.
Se define como estación a cualquier equipo, concentrador, bridge, brouter, HUB, router, WS, ..., conectado a la red FDDI.
En cada "oportunidad de acceso" a la red, por parte de una estación, se transmite una o varias tramas FDDI, de longitud variable hasta un máximo de 4.500 bytes.
La longitud máxima de 4.500 bytes es determinada por la codificación empleada, denominada 4B/5B (4 bytes/5 bytes), con una frecuencia de reloj de 125 MHz, siendo por tanto la eficacia del 80%.
En una red FDDI, pueden coexistir un máximo de 500 estaciones, distanciadas en un máximo de 2 Km. y conectadas por medio de fibra óptica 62,5/125 m m, en una circunferencia máxima de 100 Km. El error máximo es de 10-9 bits.

Control de Acceso al medio (MAC) en IEEE 802.



El IEEE 802.5 es un estándar por el Institute of Electrical and Electronics Engineers (IEEE), y define una red de área local LAN en configuración de anillo (Ring), con método de paso de testigo (Token) como control de acceso al medio. La velocidad de su estándar es de 4 ó 16 Mbps.
El diseño de una red de Token Ring fue atribuido a E. E. Newhall en el año 1969. International Business Machines (IBM) publicó por primera vez su topología de Token Ring en marzo de [1982], cuando esta compañía presentó los papeles para el proyecto 802 del IEEE. IBM anunció un producto Token Ring en 1984, y en 1985 éste llegó a ser un estándar de ANSI/IEEE.Es casi idéntica y totalmente compatible con la red del token ring de IBM. De hecho, la especificación de IEEE 802.5 fue modelada después del token ring, y continúa sombreando el desarrollo del mismo. Además, el token ring de la IBM especifica una estrella, con todas las estaciones del extremo unidas a un dispositivo al que se le llama "unidad del acceso multiestación" (MSAU).
El IEEE 802.5 soporta dos tipos de frames básicos: tokens y frames de comandos y de datos. El Token es una trama que circula por el anillo en su único sentido de circulación.

ESTANDARES IEEE 802 (origen)


En 1980 el IEEE comenzó un proyecto llamado estandar 802 basado en conseguir un modelo para permitir la intercomunicación de ordenadores para la mayoría de los fabricantes. Para ello se enunciaron una serie de normalizaciones que con el tiempo han sido adaptadas como normas internacionales por la ISO. El protocolo 802 está dividido según las funciones necesarias para el funcionamiento de las LAN.

IEEE 802 es un estudio de estándares perteneciente al Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), que actúa sobre Redes de Ordenadores, concretamente y según su propia definición sobre redes de área local (RAL, en inglés LAN) y redes de área metropolitana (MAN en inglés). También se usa el nombre IEEE 802 para referirse a los estándares que proponen.

sábado, 10 de abril de 2010