Páginas

martes, 28 de mayo de 2013

Capa de Enlace de Datos

Aqui les presentamos el material expuesto en clase





LA CAPA DE ENLACE DE DATOS

El nivel de enlace es el segundo nivel del modelo OSI. Recibe peticiones del nivel de red y utiliza los servicios del nivel físico.
El objetivo del nivel de enlace es conseguir que la información fluya, libre de errores, entre dos máquinas que estén conectadas directamente (servicio orientado a conexión).
Para lograr este objetivo tiene que montar bloques de información (llamados tramas en este nivel), dotarles de una dirección de nivel de enlace, gestionar la detección o corrección de errores, y ocuparse del control de flujo entre equipos (para evitar que un equipo más rápido desborde a uno más lento).
Cuando el medio de comunicación está compartido entre más de dos equipos es necesario arbitrar el uso del mismo. Esta tarea se realiza en el subnivel de acceso al medio.
Dentro del grupo de normas IEEE 802, el subnivel de enlace lógico se recoge en la norma IEEE 802.2 y es común para todos los demás tipos de redes(Ethernet o IEEE 802.3, IEEE 802.11 o Wi-Fi, IEEE 802.16 o WiMAX, etc.); todas ellas especifican un subnivel de acceso al medio así como un nivel físico distintos.
Tramas
En la capa de enlace, los datos se organizan en unidades llamadas tramas. Cada trama tiene una cabecera que incluye una dirección e información de control y una cola que se usa para la detección de errores.
La cabecera de una trama de red de área local (LAN) contiene las direcciones físicas del origen y el destino de la LAN. La cabecera de una trama que se transmite por una red de área extensa (WAN) contiene un identificador de circuito en su campo de dirección.
Recuerde que un enlace es una red de área local, una línea punto a punto o alguna otra facilidad de área extensa por la que se pueden comunicar los sistemas mediante un protocolo de la capa de enlace de datos.
Funciones
La Capa de enlace de datos es responsable de la transferencia fiable de información a través de un circuito de transmisión de datos. La transmisión de datos lo realiza mediante tramas que son las unidades de información con sentido lógico para el intercambio de datos en la capa de enlace.
Sus principales funciones son 8:
  • Iniciación, terminación e identificación.
  • Segmentación y bloqueo.
  • Sincronización de octeto y carácter.
  • Delimitación de trama y transparencia.
  • Control de errores.
  • Control de flujo.
  • Recuperación de fallos
  • Gestión y coordinación de la comunicación.

Protocolos elementales de enlace de datos

Protocolo simplex sin restricciones
Los datos se transmiten en una dirección, las capas de red en el transmisor y receptor siempre están listas, el tiempo de procesamiento puede ignorarse, espacio infinito de buffer, canal libre errores.
Dos procedimientos diferentes, uno transmisor y uno receptor que se ejecutan en la capas de enlace.
Transmisor solo envía datos a la línea, obtiene un paquete de la capa de red, construye un frame de salida y lo envía a su destino. Receptor espera la llegada de un frame.
Protocolo simplex de parada y espera
El receptor no es capaz de procesar datos de entrada con una rapidez infinita
Receptor debe proporcionar realimentación al transmisor, el transmisor envía un frame y luego espera acuse antes de continuar.
Protocolo simplex para un canal ruidoso
Canal presenta errores, los frame pueden llegar dañados o perderse por completo
Agregar un temporizador, falla si el frame de acuse se pierde pues se retransmitirá el frame.
Se debe agregar un numero de secuencia en el encabezado de cada frame que se envía.
Protocolo de ventana corrediza
Usar el mismo circuito para datos en ambas direcciones
Se mezclan los frames de datos con los frame de acuse de recibido
Receptor analiza el campo de tipo en el encabezado de un frame de entrada para determinar si es de datos o acuse.
Incorporación, retardo temporal de los acuses para que puedan colgarse del siguiente frame de datos de salida, usando el campo ack del encabezado del frame
Mejor aprovechamiento del ancho de banda del canal, no son frames independientes
Si no llega un nuevo frame en un tiempo predeterminado, la capa de enlace de datos manda un frame de acuse independiente.
En todos los protocolos de ventana corrediza, cada frame de salida contiene un número de secuencia con un intervalo que va desde 0 hasta algún máximo. El máximo es generalmente 2(n) -1, por lo que el número de secuencia cabe bien
en un campo de n bits.
Protocolo de ventana corrediza de un bit
Usa parada y espera, ya que el transmisor envía un frame y espera su acuse antes de transmitir el siguiente.
La máquina que arranca obtiene su primer paquete de su capa de red, construye un frame a partir de él y lo envía. Al llegar este frame, la capa de enlace de datos receptor lo revisa para ver si es un duplicado. Si el marco es el esperado, se pasa a la capa de red y la ventana del receptor se recorre hacia arriba.
El campo de acuse contiene el número del último frame recibido sin error. Si este número concuerda con el número de
secuencia del marco que está tratando de enviar el transmisor, éste sabe que ha terminado con el marco almacenado en el buffer y que puede obtener el siguiente paquete de su capa de red. Si el número de secuencia no concuerda con el número, debe continuar intentando enviar el mismo frame.
Por cada frame que se recibe, se envía un frame de regreso.
Problema si el transmisor tiene un temporizador corto, ya que enviará varias veces el frame, sin embargo el receptor sólo aceptará el frame una vez y no entregará frames repetidos a la capa de red.
Protocolo que usa regresar n y protocolo de repetición selectiva
Hasta ahora hemos supuesto insignificante el tiempo necesario para que un frame llegue al receptor más el tiempo para que regrese el acuse.
El tiempo de viaje tiene importantes implicaciones para la eficiencia del aprovechamiento del ancho de banda. Canal de 50Kbps con retardo de propagación de ida y vuelta de 500 mseg.
Con frames de 1000 bits, en 20 mseg. el frame ha sido enviado completamente.
En 270 mseg. el frame llega por completo al receptor y en 520 mseg. llega el acuse de regreso al transmisor.
El transmisor estuvo bloqueado durante el 96% del tiempo (500/520). Sólo se usó el 4% del ancho de banda disponible.

PPP- PROTOCOLO PUNTO A PUNTO

Para mejorar la situación, el IETF estableció un grupo dedicado a diseñar un protocolo de enlace de datos para líneas punto a punto que resolviera todos estos problemas y que pudiera volverse un estándar oficial de Internet. Este trabajo culmino con el PPP (Point-to-Point Protocol, protocolo punto a punto). El PPP realiza detección de errores, reconoce múltiples protocolos, permite la negociación de direcciones de IP en el momento de la conexión, permite la verificación de autenticidad y tiene muchas mejoras respecto a SLIP. Aunque muchos proveedores de servicios de Internet aun reconocen tanto SLIP como PPP, el futuro claramente esta en PPP, no solo en las líneas por discado sino también en las líneas arrendadas de enrutador a enrutador.
PPP proporciona tres cosas:
1. Un método de enmarcado que delinea sin ambigüedades el final de un marco y el inicio del siguiente. El formato de marco también maneja la detección de errores.
2. Un protocolo de control de enlace para activar líneas, probarlas, negociar opciones y desactivarlas ordenadamente cuando ya no son necesarias. Este protocolo se llama LCP (link Control Protocol, protocolo de control de enlace).
3. Un mecanismo para negociar opciones de capa de red con independencia del protocolo de red usado. El método escogido consiste en tener un NCP (Network Control Protocol, protocolo de control de red) distinto para cada capa de red reconocida.
Para ver la manera en que encajan estas piezas, consideremos la situación típica de un usuario casero llamando al proveedor de servicios de Internet para convertir una PC casera en un host temporal de Internet. La PC llama inicialmente al enrutador del proveedor a través de un modem. Una vez que el modem del enrutador ha contestado el teléfono y ha establecido una conexión física, la PC manda al enrutador una serie de paquetes LCP en el campo de carga útil de uno o mas marcos PPP. Estos paquetes, y sus respuestas, seleccionan los parámetros PPP por usar.
Una vez que se han acordado estos parámetros, se envía una serie de paquetes NCP para configurar la capa de red. Típicamente, la PC quiere ejecutar una pila de protocolos TCP/IP, por lo que necesita una dirección de IP. La diferencia principal entre PPP y HDLC es que el primero esta orientado a caracteres, no a bits. En particular PPP, como SLIP, usa el relleno de caracteres en las líneas por discado con modem, por lo que todos los marcos tienen un numero entero de bytes. En otras palabras, PPP no proporciona por omisión transmisión confiable usando números de secuencias y acuses. En ambientes ruidosos, como los de las redes inalámbricas, se puede usar el modo numerado para transmisión confiable.
En resumen, PPP es un mecanismo de enmarcado multiprotocolo adecuado para usarse a través de módems, líneas de serie de bits HDLC,SONET y otras capas físicas, Maneja detección de errores, negociación de opciones, compresión de encabezados y, opcionalmente, transmisión confiable con marcos HDLC.
Los códigos de terminación sirven para desactivar una línea cuando ya no se necesita. Los códigos de rechazo-código y rechazo-protocolo son usados por el contestador para indicar que recibió algo que no entiende. Los códigos eco sirven para probar la calidad de la línea.
Control de errores
Como asegurar que todos los marcos sean entregados finalmente a la capa de red en el destino, en el orden apropiado. Suponga que el transmisor se dedico a enviar marcos sin importarle si estaban llegando adecuadamente. Esto podría estar bien para un servicio sin acuse sin conexión, pero ciertamente no será correcto para un servicio confiable orientado a la conexión.
La manera normal de asegurar la entrega confiable de datos es proporcionar al transmisor realimentación sobre lo que esta ocurriendo en el otro lado de la línea. Típicamente, el protocolo exige que el transmisor envié de regreso marcos de control especiales que contengan acuses positivos o negativos de los marcos de entrada. Si el transmisor recibe un acuse positivo de un marco, sabe que el marco llego correctamente. Un acuse negativo significa que algo fallo y el marco debe transmitirse otra vez.
Una complicación adicional surge de la posibilidad de que problemas de Hardware pueden causar la desaparición de un marco completo. En este caso el receptor no reaccionara en absoluto, ya que no tiene razón para reaccionar. Debe quedar claro que un protocolo en el cual el transmisor envía un marco y luego espera un acuse, positivo o negativo, se quedaría esperando eternamente si se pierde por completo un marco debido a una falla del hardware.
Esta posibilidad se maneja introduciendo temporizadores en la capa de enlace de datos. Cuando el transmisor envía un marco, generalmente también arranca un temporizador. El temporizador se ajusta de modo que termine cuando haya transcurrido un intervalo suficiente para que el marco llegue a su destino, se procese ahí y el acuse se propague de regreso al transmisor. Normalmente, el marco se recibirá correctamente y el acuse llegará antes de que el temporizador termine, en cuyo caso se cancelara.
Sin embargo, si el marco o el acuse se pierden, el temporizador terminara, alertando al transmisor sobre un problema potencial. La solución obvia es simplemente transmitir de nuevo el marco. Sin embargo, aun cuando los marcos pueden transmitirse muchas veces y que lo pase a la capa de red mas de una vez. Para evitar que ocurra esto, generalmente es necesario asignar números de secuencia a los marcos de salida, para que el receptor pueda distinguir las retransmisiones de los originales.
La administración de temporizadores y números de secuencia para asegurar que cada marco llegue finalmente a la capa de red en el destino una sola vez, ni mas ni menos, es una de las tares importantes de la capa de enlace de datos.
Existen 2 métodos de control de errores:
• FEC o corrección de errores por anticipado y no tiene control de flujo.
El receptor puede detectar errores y en la decodificación puede arreglarlos.Este sistema conlleva el uso de códigos correctores que trabajan con palabras código que tienen bits de redundancia  Suelen usar códigos de bloque, donde se usan las características de la distancias de hamming y generación de códigos cíclicos mediante polinomios generadores.También puede usar códigos convencionales.
Son adecuados para entornos en los que el número de erróneos no es grande y los bits erróneos se presentan aislados.
Se utilizan en transmisiones simples, aplicaciones militares cuando el receptor no quiere que se detecte su presencia o transmisiones vía satélite.
• ARQ: Posee control de flujo mediante parada y espera, o/y ventana deslizante.
Controlan los errores utilizando la técnica de repetición automática de respuesta. Se basan en detectar errores mediante códigos sencillos que permiten al receptor descartar las tramas erróneas.Y corregir los errores mediante la representación de las tramas transmitidas.
Las posibles implementaciones son:
Parada y espera simple: Emisor envía trama y espera una señal del emisor para enviar la siguiente o la que acaba de enviar en caso de error.
Envio continuo y rechazo simple: Emisor envía continuamente tramas y el receptor las va validando. Si encuentra una errónea, elimina todas las posteriores y pide al emisor que envíe a partir de la trama errónea.
Envio continuo y rechazo selectivo: transmisión continua salvo que solo retransmite la trama defectuosa. El receptor se complica ya ha de guardar en un registro todas las tramas posteriores a un error hasta que le llegue la retransmisión de la trama para poder entregarlas el orden.

CONTROL DE FLUJO

Que hacer con un transmisor que sistemáticamente quiere transmitir marcos a mayor velocidad que aquella con que puede aceptarlos el receptor. Esta situación puede ocurrir fácilmente cuando el transmisor opera en una computadora rápida (o con baja carga) y el receptor opera en una maquina lenta (o sobrecarga). El transmisor envía los marcos a alta velocidad hasta que satura por completo al receptor. Aun si la transmisión esta libre de errores, en cierto punto el receptor simplemente no será capaz de manejar los marcos según van llegando y comenzara a perder algunos. Es obvio que algo tiene que hacerse para evitar esta situación. La solución común es introducir un control de flujo para controlar la velocidad del transmisor de modo que no envíe a mayor velocidad que la que puede manejar el receptor. Este control de velocidad generalmente requiere algún mecanismo de realimentación, para que el transmisor pueda enterarse si el receptor es capaz de mantener el ritmo o no.
Se conocen varios esquemas de control de flujo, pero la mayoría se basan en el mismo principio. El protocolo contiene reglas bien definidas respecto al momento en que un transmisor puede enviar el siguiente marco. Estas reglas con frecuencia prohíben el envío de marcos hasta que el receptor lo haya autorizado, implícita o explícitamente. Por ejemplo, cuando se establece una conexión, el receptor podría decir: "puedes enviarme n marcos ahora, pero tras transmitirlos, no envíes mas hasta que te haya indicado que continúes".

DETECCIÓN Y CORRECCIÓN DE ERRORES

Los procesos físicos que generan los errores en algunos medios (por ejemplo la radio) tienden a aparecer en ráfagas, no individualmente. El que los errores lleguen en una ráfaga tienen tantas ventajas como desventajas respecto a los errores aislados de un solo bit. Por el lado de lasa ventajas, los datos de computadora siempre se envían en bloques de bits. Suponga que el tamaño del bloque es de 1000bits y la tasa de error es de 0.001 por bit. Si los errores fueran independientes, la mayor parte de los bloque contendrían un error. Sin embargo, si los errores llegan en ráfagas de 100, en promedio solo uno o dos bloques de cada 100 serán afectados. La desventaja de los errores en ráfaga es que son mucho más difíciles de detectar y corregir que los errores aislados.

EL PROTOCOLO CSMA/CD.

Carrier Sense Multiple Access with Collision Detection
Cuando la interfaz del servidor tiene un paquete para transmitir, escucha en la línea para determinar si hay mensajes siendo transmitidos. Si no detecta transmisión alguna, la interfaz comienza a enviar. Cada transmisión está limitada en el tiempo, pues existe un tamaño máximo de paquete. Cuando un transceiver comienza a transmitir, la señal no llega a cada punto de la red simultáneamente, a pesar de que viaja a casi un 80% de la velocidad de la luz. Por lo anterior, es posible que 2 transceivers determinen que la red está ociosa y comiencen a transmitir al mismo tiempo; provocando la colisión de las dos señales.
Detección de Colisiones (CD):
Cada transceiver monitorea el cable mientras está transfiriendo para verificar que una señal externa no interfiera con la suya. Cuando colisión es detectada, la interfaz aborta la transmisión y espera hasta que la actividad cese antes de volver a intentar la transmisión. Política de retención exponencial. El emisor espera un tiempo aleatorio después de la primera colisión; un periodo de espera 2 veces más largo que el primero en caso de una segunda colisión; 4 veces más largo la próxima vez, etc., reduciendo así al máximo la probabilidad de colisión.
Técnicas de Control de acceso al medio

Colocar datos en los medios de comunicación

La regulación de la colocación de tramas de datos en los medios es conocida como control de acceso al medio. Entre las diferentes implementaciones de los protocolos de la capa de enlace de datos, hay diferentes métodos de control de acceso a los medios. Estas técnicas de control de acceso al medio definen si los nodos comparten los medios y de qué manera lo hacen.

El control de acceso al medio es el equivalente a las reglas de tráfico que regulan la entrada de vehículos a una autopista. La ausencia de un control de acceso al medio sería el equivalente a vehículos ignorando el resto del tráfico e ingresando al camino sin tener en cuenta a los otros vehículos.

Sin embargo, no todos los caminos y entradas son iguales. El tráfico puede ingresar a un camino confluyendo, esperando su turno en una señal de parada o respetando el semáforo. Un conductor sigue un conjunto de reglas diferente para cada tipo de entrada.

De la misma manera, hay diferentes formas de regular la colocación de tramas en los medios. Los protocolos en la capa de enlace de datos definen las reglas de acceso a los diferentes medios. Algunos métodos de control de acceso al medio utilizan procesos altamente controlados para asegurar que las tramas se coloquen con seguridad en los medios. Estos métodos se definen mediante protocolos sofisticados, que requieren mecanismos que introducen sobrecargas a la red.

El método de control de acceso al medio utilizado depende de:
·          Compartir medios: si y cómo los nodos comparten los medios.
·          Topología: cómo la conexión entre los nodos se muestra a la capa de enlace de datos.

Control de acceso al medio para medios compartidos

Algunas topologías de red comparten un medio común con varios nodos. En cualquier momento puede haber una cantidad de dispositivos que intentan enviar y recibir datos utilizando los medios de red. Hay reglas que rigen cómo esos dispositivos comparten los medios.

Hay dos métodos básicos de control de acceso al medio para medios compartidos:
  • ·          Controlado: Cada nodo tiene su propio tiempo para utilizar el medio
  • ·          Basado en la contención: Todos los nodos compiten por el uso del medio


Acceso controlado para medios compartidos

Al utilizar el método de acceso controlado, los dispositivos de red toman turnos, en secuencia, para acceder al medio. A este método se le conoce como acceso programado o determinantico. Si un dispositivo no necesita acceder al medio, la oportunidad de utilizar el medio pasa al siguiente dispositivo en línea. Cuando un dispositivo coloca una trama en los medios, ningún otro dispositivo puede hacerlo hasta que la trama haya llegado al destino y haya sido procesada por el destino.

Aunque el acceso controlado está bien ordenado y provee rendimiento predecible, los métodos determinanticos pueden ser ineficientes porque un dispositivo tiene que esperar su turno antes de poder utilizar el medio.

Acceso por contención para medios compartidos

Estos métodos por contención, también llamados no deterministas, permiten que cualquier dispositivo intente acceder al medio siempre que haya datos para enviar. Para evitar caos completo en los medios, estos métodos usan un proceso de Acceso múltiple por detección de portadora (CSMA) para detectar primero si los medios están transportando una señal. Si se detecta una señal portadora en el medio desde otro nodo, quiere decir que otro dispositivo está transmitiendo. Cuando un dispositivo está intentando transmitir y nota que el medio está ocupado, esperará e intentará después de un período de tiempo corto. Si no se detecta una señal portadora, el dispositivo transmite sus datos. Las redes Ethernet e inalámbricas utilizan control de acceso al medio por contención.

Es posible que el proceso CSMA falle si dos dispositivos transmiten al mismo tiempo. A esto se lo denomina colisión de datos. Si esto ocurre, los datos enviados por ambos dispositivos se dañarán y deberán enviarse nuevamente.

Los métodos de control de acceso al medio por contención no tienen la sobrecarga de los métodos de acceso controlado. No se requiere un mecanismo para analizar quién posee el turno para acceder al medio. Sin embargo, los sistemas por contención no escalan bien bajo un uso intensivo de los medios. A medida que el uso y el número de nodos aumenta, la probabilidad de acceder a los medios con éxito sin una colisión disminuye. Además, los mecanismos de recuperación requeridos para corregir errores debidos a esas colisiones disminuyen aún más el throughput.

CSMA es generalmente implementado junto con un método para resolver la contención del medio. Los dos métodos comúnmente utilizados son:

CSMA/Detección de colisión

En CSMA/Detección de colisión (CSMA/CD), el dispositivo monitorea los medios para detectar la presencia de una señal de datos. Si no hay una señal de datos, que indica que el medio está libre, el dispositivo transmite los datos. Si luego se detectan señales que muestran que otro dispositivo estaba transmitiendo al mismo tiempo, todos los dispositivos dejan de enviar e intentan después. Las formas tradicionales de Ethernet usan este método.

CSMA/Prevención de colisiones

En CSMA/Prevención de colisiones (CSMA/CA), el dispositivo examina los medios para detectar la presencia de una señal de datos. Si el medio está libre, el dispositivo envía una notificación a través del medio, sobre su intención de utilizarlo. El dispositivo luego envía los datos. Este método es utilizado por las tecnologías de redes inalámbricas 802.11.

Control de acceso al medio para medios no compartidos

Los protocolos de control de acceso al medio para medios no compartidos requieren poco o ningún control antes de colocar tramas en los medios. Estos protocolos tienen reglas y procedimientos más simples para el control de acceso al medio. Tal es el caso de las topologías punto a punto.

En las topologías punto a punto, los medios interconectan sólo dos nodos. En esta configuración, los nodos no necesitan compartir los medios con otros hosts ni determinar si una trama está destinada para ese nodo. Por lo tanto, los protocolos de capa de enlace de datos hacen poco para controlar el acceso a medios no compartidos.

Full Duplex y Half Duplex

En conexiones punto a punto, la Capa de enlace de datos tiene que considerar si la comunicación es half-duplex o full-duplex.

Comunicación half-duplex quiere decir que los dispositivos pueden transmitir y recibir en los medios pero no pueden hacerlo simultáneamente. Ethernet ha establecido reglas de arbitraje para resolver conflictos que surgen de instancias donde más de una estación intenta transmitir al mismo tiempo.

En la comunicación full-duplex, los dos dispositivos pueden transmitir y recibir en los medios al mismo tiempo. La capa de enlace de datos supone que los medios están disponibles para transmitir para ambos nodos en cualquier momento. Por lo tanto, no hay necesidad de arbitraje de medios en la capa de enlace de datos.

Los detalles de una técnica de control de acceso al medio específica sólo pueden examinarse estudiando un protocolo específico.

Comparación entre la topología lógica y la topología física

La topología de una red es la configuración o relación de los dispositivos de red y las interconexiones entre ellos. Las topologías de red pueden verse en el nivel físico y el nivel lógico.

La topología física es una configuración de nodos y las conexiones físicas entre ellos. La representación de cómo se usan los medios para interconectar los dispositivos es la topología física. 

Una topología lógica es la forma en que una red transfiere tramas de un nodo al siguiente. Esta configuración consiste en conexiones virtuales entre los nodos de una red independiente de su distribución física. Los protocolos de capa de enlace de datos definen estas rutas de señales lógicas. La capa de enlace de datos “ve” la topología lógica de una red al controlar el acceso de datos a los medios. Es la topología lógica la que influye en el tipo de trama de red y control de acceso a medios utilizados.

La topología física o cableada de una red probablemente no sea la misma que la topología lógica.

La topología lógica de una red está estrechamente relacionada con el mecanismo utilizado para administrar el acceso a la red. Los métodos de acceso proporcionan los procedimientos para administrar el acceso a la red para que todas las estaciones tengan acceso. Cuando varias entidades comparten los mismos medios, deben estar instalados algunos mecanismos para controlar el acceso. Los métodos de acceso son aplicados a las redes para regular este acceso a los medios. Los métodos de acceso se analizarán con más detalle más adelante.

Las topologías lógica y física generalmente utilizadas en redes son:
  • ·          Punto a Punto
  • ·          Multi-Acceso
  • ·         Anillo

Topología punto a punto

Una topología punto a punto conecta dos nodos directamente entre sí. En redes de datos con topologías punto a punto, el protocolo de control de acceso al medio puede ser muy simple. Todas las tramas en los medios sólo pueden viajar a los dos nodos o desde éstos. El nodo en un extremo coloca las tramas en los medios y el nodo en el otro extremo las saca de los medios del circuito punto a punto.

En redes punto a punto, si los datos sólo pueden fluir en una dirección a la vez, está operando como un enlace half-duplex. Si los datos pueden fluir con éxito a través del enlace desde cada nodo simultáneamente, es un enlace full-duplex.

Los Protocolos de capa de enlace podrían proveer procesos más sofisticados de control de acceso a los medios para las topologías lógicas punto a punto, pero esto agregaría un gasto innecesario al protocolo.

Redes punto a punto lógicas

Los nodos de los extremos que se comunican en una red punto a punto pueden estar conectados físicamente a través de una cantidad de dispositivos intermedios. Sin embargo, el uso de dispositivos físicos en la red no afecta la topología lógica. Los nodos de origen y destino pueden estar conectados indirectamente entre sí a través de una distancia geográfica. En algunos casos, la conexión lógica entre nodos forma lo que se llama circuito virtual. Un circuito virtual es una conexión lógica creada dentro de una red entre dos dispositivos de red. Los dos nodos en cada extremo del circuito virtual intercambian las tramas entre sí. Esto ocurre incluso si las tramas están dirigidas a través de dispositivos intermediarios. Los circuitos virtuales son construcciones de comunicación lógicas utilizadas por algunas tecnologías de la Capa 2.

El método de acceso al medio utilizado por el protocolo de enlace de datos se determina por la topología lógica punto a punto, no la topología física. Esto significa que la conexión lógica de punto a punto entre dos nodos puede no ser necesariamente entre dos nodos físicos en cada extremo de un enlace físico único.

Topología multi-acceso

Una topología lógica multi-acceso permite a una cantidad de nodos comunicarse utilizando los mismos medios compartidos. Los datos desde un sólo nodo pueden colocarse en el medio en cualquier momento. Todos los nodos ven todas las tramas que están en el medio, pero sólo el nodo al cual la trama está direccionada procesa los contenidos de la trama.

Hacer que varios nodos compartan el acceso a un medio requiere un método de control de acceso al medio de enlace de datos que regule la transmisión de datos y, por lo tanto, reduzca las colisiones entre las diferentes señales.

Los métodos de control de acceso al medio utilizado por las topologías multi-acceso son generalmente CSMA/CD o CSMA/CA. Sin embargo, métodos de paso de token pueden también utilizarse.

Un número de técnicas de control de acceso a los medios está disponible para este tipo de topología lógica. El protocolo de capa de enlace de datos especifica el método de control de acceso al medio que proporcionará el balance apropiado entre el control de trama, la protección de trama y la sobrecarga de red.

Topología de anillo

En una topología lógica de anillo, cada nodo recibe una trama por turno. Si la trama no está direccionada al nodo, el nodo pasa la trama al nodo siguiente. Esto permite que un anillo utilice una técnica de control de acceso al medio llamada paso de tokens.

Los nodos en una topología lógica de anillo retiran la trama del anillo, examinan la dirección y la envían si no está dirigida para ese nodo. En un anillo, todos los nodos alrededor del anillo entre el nodo de origen y de destino examinan la trama.

Existen múltiples técnicas de control de acceso a los medios que podrían usarse con un anillo lógico, dependiendo del nivel de control requerido. Por ejemplo: sólo una trama a la vez es generalmente transportada por el medio. Si no se están transmitiendo datos, se colocará una señal (conocida como token) en el medio y un nodo sólo puede colocar una trama de datos en el medio cuando tiene el token.

DIRECCIONAMIENTO DEL CONTROL DE ACCESO AL MEDIO Y TRAMADO DE DATOS.

Protocolos de la capa de enlace de datos: Trama

Recuerde que a pesar de que hay muchos protocolos de capa de enlace de datos diferentes que describen las tramas de la capa de enlace de datos, cada tipo de trama tiene tres partes básicas:  

-Encabezado
-datos
- tráiler.

Todos los protocolos de capa de enlace de datos encapsulan la PDU de la capa 3 dentro del campo de datos de la trama. Sin embargo, la estructura de la trama y los campos contenidos en el encabezado y tráiler varían de acuerdo con el
protocolo.  El protocolo de capa de enlace de datos describe las características requeridas para el transporte de paquetes a través de diferentes medios. Estas características del protocolo están integradas en la encapsulación de la trama. Cuando la trama llega a su destino y el protocolo de capa de enlace de datos saca la trama del medio, la información de tramado es leída y descartada.

No hay una estructura de trama que cumpla con las necesidades de todos los transportes de datos a través de todos los tipos de medios. Como se muestra en la figura, según el entorno, la cantidad de información de control que se necesita en la trama varía para coincidir con los requisitos de control de acceso al medio de los medios y de la topología lógica.




Tramado: función del encabezado

Como se muestra en la figura, el encabezado de trama contiene la información de control especificada por el protocolo de capa de enlace de datos para la topología lógica específica y los medios utilizados. 

La información de control de trama es única para cada tipo de protocolo. Es utilizada por el protocolo de la Capa 2 para proporcionar las características demandadas por el entorno de comunicación. 

Los campos típicos del encabezado de trama incluyen:
- Campo inicio de trama: indica el comienzo de la trama
- Campos de dirección de origen y destino: indica los nodos de origen y destino en los medios
- Prioridad/Calidad del Campo de servicio: indica un tipo particular de servicio de comunicación para el procesamiento
- Campo tipo: indica el servicio de la capa superior contenida en la trama
- Campo de control de conexión lógica: utilizada para establecer la conexión lógica entre nodos 
- Campo de control de enlace físico: utilizado para establecer el enlace a los medios 
- Campo de control de flujo: utilizado para iniciar y detener el tráfico a través de los medios
- Campo de control de congestión: indica la congestión en los medios

Los nombres de los campos mencionados son campos no específicos enumerados como ejemplos. Diferentes protocolos de capa de enlace de datos pueden utilizar diferentes campos de los mencionados. Debido a que los fines y funciones de los protocolos de capa de enlace de datos están relacionados a las topologías específicas y a los medios, cada protocolo debe examinarse para tener una comprensión detallada de su estructura de trama.

Direccionamiento: hacia dónde se dirige la trama

La capa de enlace de datos proporciona direccionamiento que es utilizado para transportar la trama a través de los medios locales compartidos. Las direcciones de dispositivo en esta capa se llaman direcciones físicas. El direccionamiento de la capa de enlace de datos está contenido en el encabezado de la trama y especifica el nodo de destino de la trama en la red local. El encabezado de la trama también puede contener la dirección de origen de la trama.

Debido a que la trama sólo se utiliza para transportar datos entre nodos a través del medio local, la dirección de la capa de enlace de datos sólo se utiliza para entregas locales. Las direcciones en esta capa no tienen significado más allá de la red local. Compare esto con la Capa 3, donde las direcciones en el encabezado del paquete son transportadas desde el host de origen al host de destino sin importar la cantidad de saltos de la red a lo largo de la ruta.

Requisitos de direccionamiento
La necesidad de direccionamiento de la capa de enlace de datos en esta capa depende de la topología lógica.  Las topologías punto a punto, con sólo dos nodos interconectados, no requieren direccionamiento. Una vez en el medio, la trama sólo tiene un lugar al cual puede ir. 

Debido a que las topologías de anillo y multiacceso pueden conectar muchos nodos en un medio común, se requiere direccionamiento para esas tipologías. Cuando una trama alcanza cada nodo en la topología, el nodo examina la dirección de destino en el encabezado para determinar si es el destino de la trama. 



Tramado: función del Tráiler

Los protocolos de la capa de enlace de datos agregan un tráiler en el extremo de cada trama. El tráiler se utiliza para determinar si la trama llegó sin errores. Este proceso se denomina detección de errores. Observe que es diferente de la corrección de errores. La detección de errores se logra colocando un resumen lógico o matemático de los bits que comprenden la trama en el tráiler.

Protocolos de capa de enlace de datos: Trama

En una red TCP/IP, todos los protocolos de la Capa 2 OSI trabajan con el protocolo de Internet en la Capa 3. Sin embargo, el protocolo de la Capa 2 real utilizado depende de la topología lógica de la red y de la implementación de la capa física. Debido al amplio rango de medios físicos utilizados a través de un rango de topologías en interconexión de redes, hay una gran cantidad correspondiente de protocolos de la Capa 2 en uso. 

Tecnología LAN
Una Red de área local generalmente utiliza una tecnología de ancho de banda alto que es capaz de sostener gran cantidad de hosts. El área geográfica relativamente pequeña de una LAN (un único edificio o un campus de varios edificios) y su alta densidad de usuarios hacen que esta tecnología sea rentable.

Tecnología WAN
Sin embargo, utilizar una tecnología de ancho de banda alto no es generalmente rentable para redes de área extensa que cubren grandes áreas geográficas (varias ciudades, por ejemplo). El costo de los enlaces físicos de larga distancia y la tecnología utilizada para transportar las señales a través de esas distancias, generalmente, ocasiona una menor capacidad de ancho de banda. 

La diferencia de ancho de banda normalmente produce el uso de diferentes protocolos para las LAN y las WAN.


Protocolo Ethernet para LAN
Ethernet es una familia de tecnologías de interconexión de redes que se define en los estándares 802.2 y 802.3. Los estándares de Ethernet definen los protocolos de la Capa 2 y las tecnologías de la Capa 1. Ethernet es la tecnología LAN más ampliamente utilizada y soporta anchos de banda de datos de 10, 100, 1000, o 10 000 Mbps. 

El formato básico de la trama y las subcapas del IEEE de las Capas OSI 1 y 2 siguen siendo los mismos para todas las formas de Ethernet. Sin embargo, los métodos para detectar y colocar en los medios varían con las diferentes implementaciones. 




No hay comentarios:

Publicar un comentario