Páginas

jueves, 4 de julio de 2013

Telefonía IP y protocolos H323, H248, SIP



¿Qué es la telefonía IP? 

La Telefonía IP es una tecnología que permite integrar en una misma red - basada en protocolo IP - las comunicaciones de voz y datos. Muchas veces se utiliza el término de redes convergentes o convergencia IP, aludiendo a un concepto un poco más amplio de integración en la misma red de todas las comunicaciones (voz, datos, video, etc.).

Esta tecnología hace ya muchos años que está en el mercado (desde finales de los 90) pero no ha sido hasta hace poco que se ha generalizado gracias, principalmente, a la mejora y estandarización de los sistemas de control de la calidad de la voz (QoS) y a la universalización del servicio Internet.

Cuando hablamos de un sistema de telefonia IP estamos hablando de un conjunto de elementos que debidamente integrados permiten suministrar un servicio de telefonia (basado en VoIP) a la empresa. Los elementos básicos que forman este sistema son: la centralita IP, el Gateway IP y los diferentes teléfonos IP.

Redes de voz, datos y video sobre IP

Hoy en día, la convergencia de las comunicaciones de empresa - voz, datos y video - en una única red IP es una tendencia imparable. Esto es debido a que las soluciones que integran voz y datos, aportan importantes beneficios para las empresas y sus usuarios:

· Ahorros en llamadas

· Simplificación infraestructura de comunicaciones

· Optimización de la gestión

· Unificación del sistema de Telefonía entre sedes

· Movilidad / Ubicuidad del usuario

Sin embargo, una red convergente multiservicio debe estar correctamente diseñada y gestionada, puesto que se convierte en un elemento mucho más crítico al soportar todas las comunicaciones de empresa.

En ese sentido se deben tener muy en cuenta aspectos como la fiabilidad, seguridad y control de la calidad de servicio (QoS) para garantizar un funcionamiento óptimo de nuestras comunicaciones.

¿Que es VoIP?

VoIP proviene del ingles Voice Over Internet Protocol, que significa "voz sobre un protocolo de internet". Básicamente VoIP es un método por el cual tomando señales de audio analógicas del tipo de las que se escuchan cuando uno habla por teléfono se las transforma en datos digitales que pueden ser transmitidos a traves de internet hacia una dirección IP determinada.

¿Porque usar VoIP?

El VoIP permite la unión de dos mundos históricamente separados, el de la transmisión de voz y el de la transmisión de datos. Entonces, el VoIP no es un servicio sino una tecnología. VoIP puede transformar una conexión standard a internet en una plataforma para realizar llamadas gratuitas por internet. Usando algunos de los software gratuitos para llamadas VoIP que están disponibles en internet estamos salteándonos a las compañías tradicionales de telefonía, y por consiguiente, sus tarifas.

Tipos de Comunicación en la Telefonia IP

Utilizando VoIP no existe solo una sola forma de realizar una llamada, vamos a analizar las distintas opciones que nos presenta esta tecnología:

ATA: (analog telephone adaptor) Esta es la forma mas simple. Este adaptador permite conectar teléfonos comunes (de los que utilizamos en la telefonía convencional) a su computadora o a su red para utilizarlos con VoIP. El adaptador ATA es básicamente un transformador de analógico a digital.

Este toma la señal de la linea de teléfono tradicional y la convierte en datos digitales listos para ser transmitidos a trabes de internet. Algunos proveedores de VOIP están regalando adaptadores ATA junto con sus servicios, estos adaptadores ya vienen preconfigurados y basta con enchufarlos para que comiencen a funcionar.

Teléfonos IP (hardphones): Estos teléfonos a primera vista se ven como los teléfonos convencionales, con un tubo, una base y cables. Sin embargo los teléfonos ip en lugar de tener una ficha RJ-11 para conectar a las líneas de teléfono convencional estos vienen con una ficha RJ-45 para conectar directamente al router de la red y tienen todo el hardware y software necesario para manejar correctamente las llamadas VOIP. Próximamente, teléfonos celulares con Wi-Fi van a estar disponibles permitiendo llamadas VOIP a personas que utilicen este tipo de teléfonos siempre que exista conectividad a internet.

Computadora a Computadora: Esta es la manera mas fácil de utilizar VoIP, todo lo que se necesita es un micrófono, parlantes y una tarjeta de sonido, además de una conexión a internet preferentemente de banda ancha. Exceptuando los costos del servicio de internet usualmente no existe cargo alguno por este tipo de comunicaciones VoIP entre computadora y computadora, no importa las distancias.

Existen otras ventajas mas allá del costo para elegir a la telefonía IP:

Con VoIP uno puede realizar una llamada desde cualquier lado que exista conectividad a internet. Dado que los teléfonos IP transmiten su información a trabes de internet estos pueden ser administrados por su proveedor desde cualquier lugar donde exista una conexión. Esto es una ventaja para las personas que suelen viajar mucho, estas personas pueden llevar su teléfono consigo siempre teniendo acceso a su servicio de telefonía IP.

La mayoría de los proveedores de VOIP entregan características por las cuales las operadoras de telefonía convencional cobran tarifas aparte. Un servicio de VOIP incluye:
  • Identificación de llamadas.
  • Servicio de llamadas en espera.
  • Servicio de transferencia de llamadas
  • Repetir llamada
  • Devolver llamada
  • Llamada de 3 líneas (three-way calling).
En base al servicio de identificación de llamadas existen también características avanzadas referentes a la manera en que las llamadas de un teléfono en particular son respondidas. Por ejemplo, con una misma llamada en Telefonía IP puedes:
  • Desviar la llamada a un teléfono particular
  • Enviar la llamada directamente al correo de voz
  • Dar a la llamada una señal de ocupado.
  • Mostrar un mensaje de fuera de servicio

Desventajas de la Telefonía IP

Aun hoy en dia existen problemas en la utilización de VoIP, queda claro que estos problemas son producto de limitaciones tecnológicas y se verán solucionadas en un corto plazo por la constante evolución de la tecnología, sin embargo algunas de estas todavía persisten y se enumeran a continuación.

VoIP requiere de una conexión de banda ancha! Aun hoy en dia, con la constante expansión que están sufriendo las conexiones de banda ancha todavía hay hogares que tienen conexiones por modem, este tipo de conectividad no es suficiente para mantener una conversación fluida con VoIP. Sin embargo, este problema se vera solucionado a la brevedad por el sostenido crecimiento de las conexiones de banda ancha.

VoIP requiere de una conexión eléctrica! En caso de un corte eléctrico a diferencia de los teléfonos VoIP los teléfonos de la telefonía convencional siguen funcionando (excepto que se trate de teléfonos inalámbricos). Esto es así porque el cable telefónico es todo lo que un teléfono convencional necesita para funcionar.

Llamadas al 911: Estas también son un problema con un sistema de telefonía VOIP. Como se sabe, la telefonía ip utiliza direcciones IP para identificar un numero telefónico determinado, el problema es que no existe forma de asociar una dirección ip a un área geográfica, como cada ubicación geográfica tiene un numero de emergencias en particular no es posible hacer una relación entre un numero telefónico y su correspondiente sección en el 911. Para arreglar esto quizás en un futuro se podría incorporar información geográfica dentro de los paquetes de transmisión del VOIP.

Dado que VOIP utiliza una conexión de red la calidad del servicio se ve afectado por la calidad de esta línea de datos, esto quiere decir que la calidad de una conexión VoIP se puede ver afectada por problemas como la alta latencia (tiempo de respuesta) o la perdida de paquetes. Las conversaciones telefónicas se pueden ver distorsionadas o incluso cortadas por este tipo de problemas. Es indispensable para establecer conversaciones VOIP satisfactorias contar con una cierta estabilidad y calidad en la línea de datos.

VOIP es susceptible a virus, gusanos y hacking, a pesar de que esto es muy raro y los desarrolladores de VOIP están trabajando en la encriptación para solucionar este tipo de problemas.

En los casos en que se utilice un softphone la calidad de la comunicación VOIP se puede ver afectada por la PC, digamos que estamos realizando una llamada y en un determinado momento se abre un programa que utiliza el 100% de la capacidad de nuestro CPU, en este caso critico la calidad de la comunicación VOIP se puede ver comprometida porque el procesador se encuentra trabajando a tiempo completo, por eso, es recomendable utilizar un buen equipo junto con su configuración voip.

PROTOCOLO H.248 ( MEGACO).

Este protocolo se define en la Recomendación H.248 de la ITU-T.  El protocolo H.248 o Megaco permite la conmutación de llamadas de voz, fax y multimedia entre la red PSTN y las redes IP de siguiente generación. El protocolo Megaco, que tiene su origen en el protocolo MGCP (Media Gateway Control Protocol, Protocolo de control de puerta de enlace al medio), proporciona un control centralizado de las comunicaciones y servicios multimedia a través de redes basadas en IP. Megaco está adquiriendo solidez en el mercado porque permite una mayor escalabilidad que H.323, y da respuesta a las necesidades técnicas y a las funciones de conferencia multimedia que se pasaron por alto en el protocolo MGCP.

Funcionalmente, Megaco es un protocolo de señalización utilizado entre los elementos de una arquitectura distribuida que incluye media gateway y controladores de media gateway (conocidos a menudo como softswitches, gatekeeper o call server).

H.248 es el resultado de la cooperación entre la ITU y el IETF. Antes de lograr esta cooperación existían varios protocolos similares compitiendo entre sí, principalmente MGCP (la combinación de SGCP e IPDC) y MDCP.   H.248 se considera un protocolo complementario a H.323 y SIP, ya que un Media Gateway Controller (MGC), controlará varios Media Gateways utilizando H.248, pero será capaz de comunicarse con otro MGC utilizando H.323 o SIP.

Protocolo H323

H.323 es una recomendación del ITU-T (International Telecommunication Union), que define los protocolos para proveer sesiones de comunicación audiovisual sobre paquetes de red. Es utilizado comúnmente para Voz sobre IP y para videoconferencia basada en IP. Entre los que conforman la topología clásica de una red basada en H-323 tenemos:

Portero: realiza el control de llamada en una zona. Traduce direcciones, ofrece servicio de directorio, control de admisión de terminales, control de consumo de recursos y procesa la autorización de llamadas, así como también puede encaminar la señalización.

Pasarela: es el acceso a otras redes, de modo que realiza funciones de convertir los datos y traducción de señalización.

§ MCU: soporte multiconferencia. Se encarga de la negociación de capacidades.

Una Llamada en H323 se hace en 4 fases:

1. ESTABLECIMIENTO

· En esta fase lo uno de los terminales se registra en el gatekeeper utilizando el protocolo RAS (Registro, admisión y estado).

· Posteriormente utilizando el protocolo H.225 se manda un mensaje de SETUP para iniciar una llamada H.323

· El terminal llamado contesta con un CALL PROCEEDING advirtiendo del intento de establecer una llamada.

· En este momento el segundo terminal tiene que registrarse con el gatekeeper utilizando el protocolo.

· El mensaje ALERTING indica el inicio de la fase de generación de tono.

· Y por último CONNECT indica el comienzo de la conexión.

2. SEÑALIZACIÓN DE CONTROL

· En esta fase se abre una negociación mediante el protocolo H.245, el intercambio de los mensajes entre los dos terminales establecen quién será master y quién slave, las capacidades de los participantes y codecs de audio y video a utilizar.

3. AUDIO

Los terminales inician la comunicación y el intercambio de audio (o video) mediante el protocolo RTP/RTCP.

4. DESCONEXIÓN

· En esta fase cualquiera de los participantes activos en la comunicación puede iniciar el proceso de finalización de llamada mediante mensajes Close Logical Channel y End Session Comand de H.245.

· Posteriormente utilizando H.225 se cierra la conexión con el mensaje RELEASE

Protocolo SIP

“Session Initiation Protocol” o SIP (Protocolo de Iniciación de Sesión), es un protocolo de señalización definido por el “Internet Engineering Task Force” o IETF que permite el establecimiento, la liberación y la modificación de sesiones multimedia (RFC3261). Este protocolo hereda de ciertas funcionalidades de los protocolos “Hyper Text Transport Protocol” o “http”, utilizados para navegar sobre el WEB y “Simple Mail Transport Protocol” o “SMTP”, utilizados para transmitir mensajes electrónicos (e-mails). SIP se apoya sobre un modelo transacción al cliente/servidor como http. El direccionamiento utiliza el concepto “Uniform Resource Locator” o “URL SIP” parecido a una dirección E-mail. Cada participante en una red SIP es entonces alcanzable vía una dirección, por medio de una URL SIP. Por otra parte, los requerimientos SIP son satisfechos por respuestas identificadas por un código digital. De hecho, la mayor parte de los códigos de respuesta SIP han sido tomados del protocolo http. Por ejemplo, cuando el destinatario no está ubicado, un código de respuesta «404 Not Found» esta devuelto. Un requerimiento SIP esta constituido de “headers” o encabezamientos, al igual que un mando SMTP. Por fin, SIP, al igual de SMPT es un protocolo textual.

El protocolo SIP es solo un protocolo de señalización. Una vez la sesión establecida, los participantes de la sesión intercambian directamente su trafico audio / video a través del protocolo “Real-Time Transport Protocol” o RTP. Por otra parte, SIP no es un protocolo de reservación de recursos, y en consecuencia, no puede asegurar la calidad de servicio. Se trata de un protocolo de control de llamada y no de control del medio.

SIP tampoco es un protocolo de transferencia de fichero tal como “http”, usado con el fin de transportar grandes volúmenes de datos. Ha sido concebido para transmitir mensajes de señalización cortos con el fin de establecer, mantener y liberar sesiones multimedia. Mensajes cortos, no relativos a una llamada pueden sin embargo ser transportados por SIP al estilo de SMS.

Entidades SIP

SIP define dos tipos de entidades: los clientes y los servidores. De manera más precisa, las entidades definidas por SIP son:

 El Servidor Proxy (Proxy Server): el recibe solicitudes de clientes que el mismo trata o encamina hacia otros servidores después de haber eventualmente, realizado ciertas modificaciones sobre estas solicitudes.

 El Servidor de Redireccionamiento (Redirect Server): se trata de un servidor quien acepta solicitudes SIP, traduce la dirección SIP de destino en una o varias direcciones de red y las devuelve al cliente. De manera contraria al Proxy Server, el Redirect Server no encamina las solicitudes SIP. En el caso de la devolución de una llamada, el Proxy Server tiene la capacidad de traducir el numero del destinatario en el mensaje SIP recibido, en un numero de reenvió de llamada y encaminar la llamada a este nuevo destino, y eso de manera transparente para el cliente de origen; para el mismo servicio, el Redirect Server devuelve el nuevo número (numero de reenvió) al cliente de origen quien se encarga de establecer una llamada hacia este nuevo destino.

 El Agente Usuario (User Agent) o “UA”: se trata de una aplicación sobre un equipo de usuario que emite y recibe solicitudes SIP. Se materializa por un software instalado sobre un « User Equipment » o UE: una PC, un teléfono IP o una estación móvil UMTS.

 El Registrador (Registrar): se trata de un servidor quien acepta las solicitudes SIP REGISTER. SIP dispone de la función de registro de los usuarios. El usuario indica por un mensaje REGISTER emitido al Registrar, la dirección donde es localizable (dirección IP). El “Registrar” actualiza entonces una base de dato de localización. El registrador es una función asociada a un Proxy Server o a un Redirect Server. Un mismo usuario puede registrarse sobre distintas UAs SIP, en este caso, la llamada le será entregada sobre el conjunto de estas UAs.

Métodos SIP

El RFC 3261 define seis solicitudes / requerimientos o métodos SIP.

El método “INVITE” es usado con el fin de establecer una sesión entre UAs. INVITE corresponde al mensaje ISUP IAM o al mensaje Q.931 SET UP y contiene las informaciones sobre el que genera la llamada y el destinatario así como sobre el tipo de flujos que serán intercambiados (voz, video,...).

Cuando un UA que emitió el método SIP INVITE recibe una respuesta final a la invitación (ejemplo: 200 OK), el confirma la recepción de esta respuesta por medio de un método “ACK”. Una respuesta del tipo “busy” o “answer” es considerada como final mientras una respuesta tipo “ringing” significando que el destinatario ha sido avisado es una respuesta provisoria.

El método “BYE” permite la liberación de una sesión anteriormente establecida. Corresponde al mensaje RELEASE de los protocolos ISUP y Q.931. Un mensaje BYE puede ser emitido por el que genera la llamada o el que la recibe.

El método “REGISTER” es usado por una UA con el fin de indicar al Registrar la correspondencia entre su Dirección SIP y su dirección de contacto (ejemplo: dirección IP).

El método “CANCEL” es utilizado para pedir el abandono de la llamada en curso pero no tiene ningún efecto sobre una llamada ya aceptada. De hecho, solo el método “BYE” puede terminar una llamada establecida.

El método “OPTIONS” es utilizado para interrogar las capacidades y el estado de un User Agent o de un servidor. La respuesta contiene sus capacidades (ejemplo: tipo de media siendo soportado, idioma soportado) o el hecho de que el UA sea indisponible.

Respuestas SIP

Después de haber recibido y interpretado un requerimiento SIP, el destinatario de este requerimiento devuelve una respuesta SIP. Existen seis clases de respuestas:

 Clase 1xx : Información, el requerimiento ha sido recibido y esta en curso de tratamiento.

 Clase 2xx: Éxito, el requerimiento ha sido recibido, entendido y aceptado.

 Clase 3xx: Reenrutamiento, la llamada requiere otros procesamientos antes de poder determinar si puede ser realizada.

 Clase 4xx: Error requerimiento cliente, el requerimiento no puede ser interpretado o servido por el servidor. El requerimiento tiene que ser modificado antes de ser reenviado.

 Clase 5xx: Error servidor, el servidor fracasa en el procesamiento de un requerimiento aparentemente valido.

 Clase 6xx: Fracaso global, el requerimiento no puede ser procesado por ningún servidor.

Arquitectura de servicios SIP

La arquitectura de servicios SIP de base está constituida de servidores de aplicación, de servidores de media y de S-CSCF.

El servidor de aplicación SIP ejecuta servicios (ejemplo: Push To Talk, Presence, Prepaid, Instant messaging, etc...) y pueden influenciar el desempeño de la sesión a pedido del servicio. El servidor de aplicación corresponde al SCP de la Red Inteligente.

El servidor de media SIP (llamado en las recomendaciones el Multimedia Resource Function o MRF) establece conferencias multimedia, toca anuncios vocales o multimedia y colecta informaciones de usuario. Se trata de la evolución de la entidad Specialized Resource Point o SRP en el mundo multimedia.

El servidor de llamada SIP (Proxy Server) tiene el papel de punto desde el cual un servicio puede ser requerido. El dispone del perfil de servicio del abonado que le indica los servicios suscritos por el abonado y bajo cuales condiciones invocar estos servicios. Corresponde al SSP de la arquitectura Red Inteligente.

jueves, 20 de junio de 2013

Multiplexación por división de tiempo (TDM)



     
Multiplexación por división de tiempo (TDM)

 Técnica para compartir un canal de transmisión entre varios usuarios. Consiste en asignar a cada usuario, durante unas determinadas "ranuras de tiempo", la totalidad del ancho de banda disponible. Esto se logra organizando el mensaje de salida en unidades de información llamadas tramas, y asignando intervalos de tiempo fijos dentro de la trama a cada canal de entrada. De esta forma, el primer canal de la trama corresponde a la primera comunicación, el segundo a la segunda, y así sucesivamente, hasta que el n-esimo más uno vuelva a corresponder a la primera.
    En la multiplexación por división de tiempo (TDM) las señales de los diferentes canales de baja velocidad son probadas y transmitidas sucesivamente en el canal de alta velocidad, al asignarles a cada uno de los canales un ancho de banda, incluso hasta cuando éste no tiene datos para transmitir.
      En la figura siguiente se representa, esquematizada de forma muy simple, un conjunto multiplexor-demultiplexor para ilustrar como se realiza la multiplexación-desmultiplexación por división de tiempo.

     En este circuito, las entradas de seis canales llegan a los denominados interruptores de canal, los cuales se cierran de forma secuencial, controlados por una señal de reloj, de manera que cada canal es conectado al medio de transmisión durante un tiempo determinado por la duración de los impulsos de reloj.
     En el extremo distante, el desmultiplexor realiza la función inversa, esto es, conecta el medio de transmisión, secuencialmente, con la salida de cada uno de los seis canales mediante interruptores controlados por el reloj del demultiplexor. Este reloj del extremo receptor funciona de forma sincronizada con el del multiplexor del extremo emisor mediante señales de temporización que son transmitidas a través del propio medio de transmisión o por un camino.
    Multiplexación por división de tiempo: se asigna a cada estación un turno de transmisión rotativo, de forma que, durante un período de tiempo, transmite una estación; luego la siguiente,  y así sucesivamente.
     El uso de esta técnica es posible cuando la tasa de los datos del medio de transmisión excede de la tasa de las señales digitales a transmitir. El multiplexor por división en el tiempo muestrea, o explora, cíclicamente las señales de entrada (datos de entrada) de los diferentes usuarios, y transmite las tramas a través de una única línea de comunicación de alta velocidad. Los MDT son dispositivos de señal discreta y no pueden aceptar datos analógicos directamente, sino demodulados mediante un módem.
      Los TDM funcionan a nivel de bit o a nivel de carácter. En un TDM a nivel de bit, cada trama contiene un bit de cada dispositivo explorado. El TDM de caracteres manda un carácter en cada canal de la trama. El segundo es generalmente más eficiente, dado que requiere menos bits de control que un TDM de bit. La operación de muestreo debe ser lo suficientemente rápida, de forma que cada buffer sea vaciado antes de que lleguen nuevos datos.
     Los sistemas MIC, sistema de codificación digital, utilizan la técnica TDM para cubrir la capacidad de los medios de transmisión. La ley de formación de los sucesivos órdenes de multiplexación responde a normalizaciones de carácter internacional, con vista a facilitar las conexiones entre diversos países y la compatibilidad entre equipos procedentes de distintos fabricantes.
 Ventajas de TDM
     1.    Esto usa unos enlaces solos
2.    Esto no requiere al portador preciso que empareja a ambo final de los enlaces.
3.    El uso de la capacidad es alto.
4.    Cada uno para ampliar el número de usuarios en un sistema en un coste bajo.
5.    No hay ninguna necesidad de incluir la identificación de la corriente de tráfico en cada paquete.

Desventajas de TDM

1.    La sensibilidad frente a otro problema de usuario es alta
2.    El coste inicial es alto
3.    La complejidad técnica es más
4.    El problema del ruido para la comunicación análoga tiene el mayor efecto.


      Acceso múltiple por división de tiempo

El Acceso múltiple por división de tiempo (Time Division Multiple Access o TDMA, del inglés) es una técnica de múltiplexación que distribuye las unidades de información en ranuras ("slots") alternas de tiempo, proveyendo acceso múltiple a un reducido número de frecuencias.
También se podría decir que es un proceso digital que se puede aplicar cuando la capacidad de la tasa de datos de la transmisión es mayor que la tasa de datos necesaria requerida por los dispositivos emisores y receptores. En este caso, múltiples transmisiones pueden ocupar un único enlace subdividiéndole y entrelazándose las porciones.
Esta técnica de multiplexación se emplea en infinidad de protocolos, sola o en combinación de otras, pero en lenguaje popular el término suele referirse al estándar D-AMPS de telefonía celular empleado en América.

Uso en telefonía celular

Mediante el uso de TDMA se divide un único canal de frecuencia de radio en varias ranuras de tiempo (seis en D-AMPS y PCS, ocho en GSM). A cada persona que hace una llamada se le asigna una ranura de tiempo específica para la transmisión, lo que hace posible que varios usuarios utilicen un mismo canal simultáneamente sin interferir entre sí.
Existen varios estándares digitales basados en TDMA, tal como TDMA D-AMPS (Digital-Advanced Mobile Phone System), TDMA D-AMPS-1900, PCS-1900 (Personal Communication Services),GSM (Global System for Mobile Communication, en el que se emplea junto con saltos en frecuencia o frequency hopping ), DCS-1800 (Digital Communications System) y PDC (Personal Digital Cellular).

Características

·         Se utiliza con modulaciones digitales.
·         Tecnología simple y muy probada e implementada.
·         Adecuada para la conmutación de paquetes.
·         Requiere una sincronización estricta entre emisor y receptor.
·         Requiere el Time advance.

martes, 28 de mayo de 2013

Capa de Enlace de Datos

Aqui les presentamos el material expuesto en clase





LA CAPA DE ENLACE DE DATOS

El nivel de enlace es el segundo nivel del modelo OSI. Recibe peticiones del nivel de red y utiliza los servicios del nivel físico.
El objetivo del nivel de enlace es conseguir que la información fluya, libre de errores, entre dos máquinas que estén conectadas directamente (servicio orientado a conexión).
Para lograr este objetivo tiene que montar bloques de información (llamados tramas en este nivel), dotarles de una dirección de nivel de enlace, gestionar la detección o corrección de errores, y ocuparse del control de flujo entre equipos (para evitar que un equipo más rápido desborde a uno más lento).
Cuando el medio de comunicación está compartido entre más de dos equipos es necesario arbitrar el uso del mismo. Esta tarea se realiza en el subnivel de acceso al medio.
Dentro del grupo de normas IEEE 802, el subnivel de enlace lógico se recoge en la norma IEEE 802.2 y es común para todos los demás tipos de redes(Ethernet o IEEE 802.3, IEEE 802.11 o Wi-Fi, IEEE 802.16 o WiMAX, etc.); todas ellas especifican un subnivel de acceso al medio así como un nivel físico distintos.
Tramas
En la capa de enlace, los datos se organizan en unidades llamadas tramas. Cada trama tiene una cabecera que incluye una dirección e información de control y una cola que se usa para la detección de errores.
La cabecera de una trama de red de área local (LAN) contiene las direcciones físicas del origen y el destino de la LAN. La cabecera de una trama que se transmite por una red de área extensa (WAN) contiene un identificador de circuito en su campo de dirección.
Recuerde que un enlace es una red de área local, una línea punto a punto o alguna otra facilidad de área extensa por la que se pueden comunicar los sistemas mediante un protocolo de la capa de enlace de datos.
Funciones
La Capa de enlace de datos es responsable de la transferencia fiable de información a través de un circuito de transmisión de datos. La transmisión de datos lo realiza mediante tramas que son las unidades de información con sentido lógico para el intercambio de datos en la capa de enlace.
Sus principales funciones son 8:
  • Iniciación, terminación e identificación.
  • Segmentación y bloqueo.
  • Sincronización de octeto y carácter.
  • Delimitación de trama y transparencia.
  • Control de errores.
  • Control de flujo.
  • Recuperación de fallos
  • Gestión y coordinación de la comunicación.

Protocolos elementales de enlace de datos

Protocolo simplex sin restricciones
Los datos se transmiten en una dirección, las capas de red en el transmisor y receptor siempre están listas, el tiempo de procesamiento puede ignorarse, espacio infinito de buffer, canal libre errores.
Dos procedimientos diferentes, uno transmisor y uno receptor que se ejecutan en la capas de enlace.
Transmisor solo envía datos a la línea, obtiene un paquete de la capa de red, construye un frame de salida y lo envía a su destino. Receptor espera la llegada de un frame.
Protocolo simplex de parada y espera
El receptor no es capaz de procesar datos de entrada con una rapidez infinita
Receptor debe proporcionar realimentación al transmisor, el transmisor envía un frame y luego espera acuse antes de continuar.
Protocolo simplex para un canal ruidoso
Canal presenta errores, los frame pueden llegar dañados o perderse por completo
Agregar un temporizador, falla si el frame de acuse se pierde pues se retransmitirá el frame.
Se debe agregar un numero de secuencia en el encabezado de cada frame que se envía.
Protocolo de ventana corrediza
Usar el mismo circuito para datos en ambas direcciones
Se mezclan los frames de datos con los frame de acuse de recibido
Receptor analiza el campo de tipo en el encabezado de un frame de entrada para determinar si es de datos o acuse.
Incorporación, retardo temporal de los acuses para que puedan colgarse del siguiente frame de datos de salida, usando el campo ack del encabezado del frame
Mejor aprovechamiento del ancho de banda del canal, no son frames independientes
Si no llega un nuevo frame en un tiempo predeterminado, la capa de enlace de datos manda un frame de acuse independiente.
En todos los protocolos de ventana corrediza, cada frame de salida contiene un número de secuencia con un intervalo que va desde 0 hasta algún máximo. El máximo es generalmente 2(n) -1, por lo que el número de secuencia cabe bien
en un campo de n bits.
Protocolo de ventana corrediza de un bit
Usa parada y espera, ya que el transmisor envía un frame y espera su acuse antes de transmitir el siguiente.
La máquina que arranca obtiene su primer paquete de su capa de red, construye un frame a partir de él y lo envía. Al llegar este frame, la capa de enlace de datos receptor lo revisa para ver si es un duplicado. Si el marco es el esperado, se pasa a la capa de red y la ventana del receptor se recorre hacia arriba.
El campo de acuse contiene el número del último frame recibido sin error. Si este número concuerda con el número de
secuencia del marco que está tratando de enviar el transmisor, éste sabe que ha terminado con el marco almacenado en el buffer y que puede obtener el siguiente paquete de su capa de red. Si el número de secuencia no concuerda con el número, debe continuar intentando enviar el mismo frame.
Por cada frame que se recibe, se envía un frame de regreso.
Problema si el transmisor tiene un temporizador corto, ya que enviará varias veces el frame, sin embargo el receptor sólo aceptará el frame una vez y no entregará frames repetidos a la capa de red.
Protocolo que usa regresar n y protocolo de repetición selectiva
Hasta ahora hemos supuesto insignificante el tiempo necesario para que un frame llegue al receptor más el tiempo para que regrese el acuse.
El tiempo de viaje tiene importantes implicaciones para la eficiencia del aprovechamiento del ancho de banda. Canal de 50Kbps con retardo de propagación de ida y vuelta de 500 mseg.
Con frames de 1000 bits, en 20 mseg. el frame ha sido enviado completamente.
En 270 mseg. el frame llega por completo al receptor y en 520 mseg. llega el acuse de regreso al transmisor.
El transmisor estuvo bloqueado durante el 96% del tiempo (500/520). Sólo se usó el 4% del ancho de banda disponible.

PPP- PROTOCOLO PUNTO A PUNTO

Para mejorar la situación, el IETF estableció un grupo dedicado a diseñar un protocolo de enlace de datos para líneas punto a punto que resolviera todos estos problemas y que pudiera volverse un estándar oficial de Internet. Este trabajo culmino con el PPP (Point-to-Point Protocol, protocolo punto a punto). El PPP realiza detección de errores, reconoce múltiples protocolos, permite la negociación de direcciones de IP en el momento de la conexión, permite la verificación de autenticidad y tiene muchas mejoras respecto a SLIP. Aunque muchos proveedores de servicios de Internet aun reconocen tanto SLIP como PPP, el futuro claramente esta en PPP, no solo en las líneas por discado sino también en las líneas arrendadas de enrutador a enrutador.
PPP proporciona tres cosas:
1. Un método de enmarcado que delinea sin ambigüedades el final de un marco y el inicio del siguiente. El formato de marco también maneja la detección de errores.
2. Un protocolo de control de enlace para activar líneas, probarlas, negociar opciones y desactivarlas ordenadamente cuando ya no son necesarias. Este protocolo se llama LCP (link Control Protocol, protocolo de control de enlace).
3. Un mecanismo para negociar opciones de capa de red con independencia del protocolo de red usado. El método escogido consiste en tener un NCP (Network Control Protocol, protocolo de control de red) distinto para cada capa de red reconocida.
Para ver la manera en que encajan estas piezas, consideremos la situación típica de un usuario casero llamando al proveedor de servicios de Internet para convertir una PC casera en un host temporal de Internet. La PC llama inicialmente al enrutador del proveedor a través de un modem. Una vez que el modem del enrutador ha contestado el teléfono y ha establecido una conexión física, la PC manda al enrutador una serie de paquetes LCP en el campo de carga útil de uno o mas marcos PPP. Estos paquetes, y sus respuestas, seleccionan los parámetros PPP por usar.
Una vez que se han acordado estos parámetros, se envía una serie de paquetes NCP para configurar la capa de red. Típicamente, la PC quiere ejecutar una pila de protocolos TCP/IP, por lo que necesita una dirección de IP. La diferencia principal entre PPP y HDLC es que el primero esta orientado a caracteres, no a bits. En particular PPP, como SLIP, usa el relleno de caracteres en las líneas por discado con modem, por lo que todos los marcos tienen un numero entero de bytes. En otras palabras, PPP no proporciona por omisión transmisión confiable usando números de secuencias y acuses. En ambientes ruidosos, como los de las redes inalámbricas, se puede usar el modo numerado para transmisión confiable.
En resumen, PPP es un mecanismo de enmarcado multiprotocolo adecuado para usarse a través de módems, líneas de serie de bits HDLC,SONET y otras capas físicas, Maneja detección de errores, negociación de opciones, compresión de encabezados y, opcionalmente, transmisión confiable con marcos HDLC.
Los códigos de terminación sirven para desactivar una línea cuando ya no se necesita. Los códigos de rechazo-código y rechazo-protocolo son usados por el contestador para indicar que recibió algo que no entiende. Los códigos eco sirven para probar la calidad de la línea.
Control de errores
Como asegurar que todos los marcos sean entregados finalmente a la capa de red en el destino, en el orden apropiado. Suponga que el transmisor se dedico a enviar marcos sin importarle si estaban llegando adecuadamente. Esto podría estar bien para un servicio sin acuse sin conexión, pero ciertamente no será correcto para un servicio confiable orientado a la conexión.
La manera normal de asegurar la entrega confiable de datos es proporcionar al transmisor realimentación sobre lo que esta ocurriendo en el otro lado de la línea. Típicamente, el protocolo exige que el transmisor envié de regreso marcos de control especiales que contengan acuses positivos o negativos de los marcos de entrada. Si el transmisor recibe un acuse positivo de un marco, sabe que el marco llego correctamente. Un acuse negativo significa que algo fallo y el marco debe transmitirse otra vez.
Una complicación adicional surge de la posibilidad de que problemas de Hardware pueden causar la desaparición de un marco completo. En este caso el receptor no reaccionara en absoluto, ya que no tiene razón para reaccionar. Debe quedar claro que un protocolo en el cual el transmisor envía un marco y luego espera un acuse, positivo o negativo, se quedaría esperando eternamente si se pierde por completo un marco debido a una falla del hardware.
Esta posibilidad se maneja introduciendo temporizadores en la capa de enlace de datos. Cuando el transmisor envía un marco, generalmente también arranca un temporizador. El temporizador se ajusta de modo que termine cuando haya transcurrido un intervalo suficiente para que el marco llegue a su destino, se procese ahí y el acuse se propague de regreso al transmisor. Normalmente, el marco se recibirá correctamente y el acuse llegará antes de que el temporizador termine, en cuyo caso se cancelara.
Sin embargo, si el marco o el acuse se pierden, el temporizador terminara, alertando al transmisor sobre un problema potencial. La solución obvia es simplemente transmitir de nuevo el marco. Sin embargo, aun cuando los marcos pueden transmitirse muchas veces y que lo pase a la capa de red mas de una vez. Para evitar que ocurra esto, generalmente es necesario asignar números de secuencia a los marcos de salida, para que el receptor pueda distinguir las retransmisiones de los originales.
La administración de temporizadores y números de secuencia para asegurar que cada marco llegue finalmente a la capa de red en el destino una sola vez, ni mas ni menos, es una de las tares importantes de la capa de enlace de datos.
Existen 2 métodos de control de errores:
• FEC o corrección de errores por anticipado y no tiene control de flujo.
El receptor puede detectar errores y en la decodificación puede arreglarlos.Este sistema conlleva el uso de códigos correctores que trabajan con palabras código que tienen bits de redundancia  Suelen usar códigos de bloque, donde se usan las características de la distancias de hamming y generación de códigos cíclicos mediante polinomios generadores.También puede usar códigos convencionales.
Son adecuados para entornos en los que el número de erróneos no es grande y los bits erróneos se presentan aislados.
Se utilizan en transmisiones simples, aplicaciones militares cuando el receptor no quiere que se detecte su presencia o transmisiones vía satélite.
• ARQ: Posee control de flujo mediante parada y espera, o/y ventana deslizante.
Controlan los errores utilizando la técnica de repetición automática de respuesta. Se basan en detectar errores mediante códigos sencillos que permiten al receptor descartar las tramas erróneas.Y corregir los errores mediante la representación de las tramas transmitidas.
Las posibles implementaciones son:
Parada y espera simple: Emisor envía trama y espera una señal del emisor para enviar la siguiente o la que acaba de enviar en caso de error.
Envio continuo y rechazo simple: Emisor envía continuamente tramas y el receptor las va validando. Si encuentra una errónea, elimina todas las posteriores y pide al emisor que envíe a partir de la trama errónea.
Envio continuo y rechazo selectivo: transmisión continua salvo que solo retransmite la trama defectuosa. El receptor se complica ya ha de guardar en un registro todas las tramas posteriores a un error hasta que le llegue la retransmisión de la trama para poder entregarlas el orden.

CONTROL DE FLUJO

Que hacer con un transmisor que sistemáticamente quiere transmitir marcos a mayor velocidad que aquella con que puede aceptarlos el receptor. Esta situación puede ocurrir fácilmente cuando el transmisor opera en una computadora rápida (o con baja carga) y el receptor opera en una maquina lenta (o sobrecarga). El transmisor envía los marcos a alta velocidad hasta que satura por completo al receptor. Aun si la transmisión esta libre de errores, en cierto punto el receptor simplemente no será capaz de manejar los marcos según van llegando y comenzara a perder algunos. Es obvio que algo tiene que hacerse para evitar esta situación. La solución común es introducir un control de flujo para controlar la velocidad del transmisor de modo que no envíe a mayor velocidad que la que puede manejar el receptor. Este control de velocidad generalmente requiere algún mecanismo de realimentación, para que el transmisor pueda enterarse si el receptor es capaz de mantener el ritmo o no.
Se conocen varios esquemas de control de flujo, pero la mayoría se basan en el mismo principio. El protocolo contiene reglas bien definidas respecto al momento en que un transmisor puede enviar el siguiente marco. Estas reglas con frecuencia prohíben el envío de marcos hasta que el receptor lo haya autorizado, implícita o explícitamente. Por ejemplo, cuando se establece una conexión, el receptor podría decir: "puedes enviarme n marcos ahora, pero tras transmitirlos, no envíes mas hasta que te haya indicado que continúes".

DETECCIÓN Y CORRECCIÓN DE ERRORES

Los procesos físicos que generan los errores en algunos medios (por ejemplo la radio) tienden a aparecer en ráfagas, no individualmente. El que los errores lleguen en una ráfaga tienen tantas ventajas como desventajas respecto a los errores aislados de un solo bit. Por el lado de lasa ventajas, los datos de computadora siempre se envían en bloques de bits. Suponga que el tamaño del bloque es de 1000bits y la tasa de error es de 0.001 por bit. Si los errores fueran independientes, la mayor parte de los bloque contendrían un error. Sin embargo, si los errores llegan en ráfagas de 100, en promedio solo uno o dos bloques de cada 100 serán afectados. La desventaja de los errores en ráfaga es que son mucho más difíciles de detectar y corregir que los errores aislados.

EL PROTOCOLO CSMA/CD.

Carrier Sense Multiple Access with Collision Detection
Cuando la interfaz del servidor tiene un paquete para transmitir, escucha en la línea para determinar si hay mensajes siendo transmitidos. Si no detecta transmisión alguna, la interfaz comienza a enviar. Cada transmisión está limitada en el tiempo, pues existe un tamaño máximo de paquete. Cuando un transceiver comienza a transmitir, la señal no llega a cada punto de la red simultáneamente, a pesar de que viaja a casi un 80% de la velocidad de la luz. Por lo anterior, es posible que 2 transceivers determinen que la red está ociosa y comiencen a transmitir al mismo tiempo; provocando la colisión de las dos señales.
Detección de Colisiones (CD):
Cada transceiver monitorea el cable mientras está transfiriendo para verificar que una señal externa no interfiera con la suya. Cuando colisión es detectada, la interfaz aborta la transmisión y espera hasta que la actividad cese antes de volver a intentar la transmisión. Política de retención exponencial. El emisor espera un tiempo aleatorio después de la primera colisión; un periodo de espera 2 veces más largo que el primero en caso de una segunda colisión; 4 veces más largo la próxima vez, etc., reduciendo así al máximo la probabilidad de colisión.
Técnicas de Control de acceso al medio

Colocar datos en los medios de comunicación

La regulación de la colocación de tramas de datos en los medios es conocida como control de acceso al medio. Entre las diferentes implementaciones de los protocolos de la capa de enlace de datos, hay diferentes métodos de control de acceso a los medios. Estas técnicas de control de acceso al medio definen si los nodos comparten los medios y de qué manera lo hacen.

El control de acceso al medio es el equivalente a las reglas de tráfico que regulan la entrada de vehículos a una autopista. La ausencia de un control de acceso al medio sería el equivalente a vehículos ignorando el resto del tráfico e ingresando al camino sin tener en cuenta a los otros vehículos.

Sin embargo, no todos los caminos y entradas son iguales. El tráfico puede ingresar a un camino confluyendo, esperando su turno en una señal de parada o respetando el semáforo. Un conductor sigue un conjunto de reglas diferente para cada tipo de entrada.

De la misma manera, hay diferentes formas de regular la colocación de tramas en los medios. Los protocolos en la capa de enlace de datos definen las reglas de acceso a los diferentes medios. Algunos métodos de control de acceso al medio utilizan procesos altamente controlados para asegurar que las tramas se coloquen con seguridad en los medios. Estos métodos se definen mediante protocolos sofisticados, que requieren mecanismos que introducen sobrecargas a la red.

El método de control de acceso al medio utilizado depende de:
·          Compartir medios: si y cómo los nodos comparten los medios.
·          Topología: cómo la conexión entre los nodos se muestra a la capa de enlace de datos.

Control de acceso al medio para medios compartidos

Algunas topologías de red comparten un medio común con varios nodos. En cualquier momento puede haber una cantidad de dispositivos que intentan enviar y recibir datos utilizando los medios de red. Hay reglas que rigen cómo esos dispositivos comparten los medios.

Hay dos métodos básicos de control de acceso al medio para medios compartidos:
  • ·          Controlado: Cada nodo tiene su propio tiempo para utilizar el medio
  • ·          Basado en la contención: Todos los nodos compiten por el uso del medio


Acceso controlado para medios compartidos

Al utilizar el método de acceso controlado, los dispositivos de red toman turnos, en secuencia, para acceder al medio. A este método se le conoce como acceso programado o determinantico. Si un dispositivo no necesita acceder al medio, la oportunidad de utilizar el medio pasa al siguiente dispositivo en línea. Cuando un dispositivo coloca una trama en los medios, ningún otro dispositivo puede hacerlo hasta que la trama haya llegado al destino y haya sido procesada por el destino.

Aunque el acceso controlado está bien ordenado y provee rendimiento predecible, los métodos determinanticos pueden ser ineficientes porque un dispositivo tiene que esperar su turno antes de poder utilizar el medio.

Acceso por contención para medios compartidos

Estos métodos por contención, también llamados no deterministas, permiten que cualquier dispositivo intente acceder al medio siempre que haya datos para enviar. Para evitar caos completo en los medios, estos métodos usan un proceso de Acceso múltiple por detección de portadora (CSMA) para detectar primero si los medios están transportando una señal. Si se detecta una señal portadora en el medio desde otro nodo, quiere decir que otro dispositivo está transmitiendo. Cuando un dispositivo está intentando transmitir y nota que el medio está ocupado, esperará e intentará después de un período de tiempo corto. Si no se detecta una señal portadora, el dispositivo transmite sus datos. Las redes Ethernet e inalámbricas utilizan control de acceso al medio por contención.

Es posible que el proceso CSMA falle si dos dispositivos transmiten al mismo tiempo. A esto se lo denomina colisión de datos. Si esto ocurre, los datos enviados por ambos dispositivos se dañarán y deberán enviarse nuevamente.

Los métodos de control de acceso al medio por contención no tienen la sobrecarga de los métodos de acceso controlado. No se requiere un mecanismo para analizar quién posee el turno para acceder al medio. Sin embargo, los sistemas por contención no escalan bien bajo un uso intensivo de los medios. A medida que el uso y el número de nodos aumenta, la probabilidad de acceder a los medios con éxito sin una colisión disminuye. Además, los mecanismos de recuperación requeridos para corregir errores debidos a esas colisiones disminuyen aún más el throughput.

CSMA es generalmente implementado junto con un método para resolver la contención del medio. Los dos métodos comúnmente utilizados son:

CSMA/Detección de colisión

En CSMA/Detección de colisión (CSMA/CD), el dispositivo monitorea los medios para detectar la presencia de una señal de datos. Si no hay una señal de datos, que indica que el medio está libre, el dispositivo transmite los datos. Si luego se detectan señales que muestran que otro dispositivo estaba transmitiendo al mismo tiempo, todos los dispositivos dejan de enviar e intentan después. Las formas tradicionales de Ethernet usan este método.

CSMA/Prevención de colisiones

En CSMA/Prevención de colisiones (CSMA/CA), el dispositivo examina los medios para detectar la presencia de una señal de datos. Si el medio está libre, el dispositivo envía una notificación a través del medio, sobre su intención de utilizarlo. El dispositivo luego envía los datos. Este método es utilizado por las tecnologías de redes inalámbricas 802.11.

Control de acceso al medio para medios no compartidos

Los protocolos de control de acceso al medio para medios no compartidos requieren poco o ningún control antes de colocar tramas en los medios. Estos protocolos tienen reglas y procedimientos más simples para el control de acceso al medio. Tal es el caso de las topologías punto a punto.

En las topologías punto a punto, los medios interconectan sólo dos nodos. En esta configuración, los nodos no necesitan compartir los medios con otros hosts ni determinar si una trama está destinada para ese nodo. Por lo tanto, los protocolos de capa de enlace de datos hacen poco para controlar el acceso a medios no compartidos.

Full Duplex y Half Duplex

En conexiones punto a punto, la Capa de enlace de datos tiene que considerar si la comunicación es half-duplex o full-duplex.

Comunicación half-duplex quiere decir que los dispositivos pueden transmitir y recibir en los medios pero no pueden hacerlo simultáneamente. Ethernet ha establecido reglas de arbitraje para resolver conflictos que surgen de instancias donde más de una estación intenta transmitir al mismo tiempo.

En la comunicación full-duplex, los dos dispositivos pueden transmitir y recibir en los medios al mismo tiempo. La capa de enlace de datos supone que los medios están disponibles para transmitir para ambos nodos en cualquier momento. Por lo tanto, no hay necesidad de arbitraje de medios en la capa de enlace de datos.

Los detalles de una técnica de control de acceso al medio específica sólo pueden examinarse estudiando un protocolo específico.

Comparación entre la topología lógica y la topología física

La topología de una red es la configuración o relación de los dispositivos de red y las interconexiones entre ellos. Las topologías de red pueden verse en el nivel físico y el nivel lógico.

La topología física es una configuración de nodos y las conexiones físicas entre ellos. La representación de cómo se usan los medios para interconectar los dispositivos es la topología física. 

Una topología lógica es la forma en que una red transfiere tramas de un nodo al siguiente. Esta configuración consiste en conexiones virtuales entre los nodos de una red independiente de su distribución física. Los protocolos de capa de enlace de datos definen estas rutas de señales lógicas. La capa de enlace de datos “ve” la topología lógica de una red al controlar el acceso de datos a los medios. Es la topología lógica la que influye en el tipo de trama de red y control de acceso a medios utilizados.

La topología física o cableada de una red probablemente no sea la misma que la topología lógica.

La topología lógica de una red está estrechamente relacionada con el mecanismo utilizado para administrar el acceso a la red. Los métodos de acceso proporcionan los procedimientos para administrar el acceso a la red para que todas las estaciones tengan acceso. Cuando varias entidades comparten los mismos medios, deben estar instalados algunos mecanismos para controlar el acceso. Los métodos de acceso son aplicados a las redes para regular este acceso a los medios. Los métodos de acceso se analizarán con más detalle más adelante.

Las topologías lógica y física generalmente utilizadas en redes son:
  • ·          Punto a Punto
  • ·          Multi-Acceso
  • ·         Anillo

Topología punto a punto

Una topología punto a punto conecta dos nodos directamente entre sí. En redes de datos con topologías punto a punto, el protocolo de control de acceso al medio puede ser muy simple. Todas las tramas en los medios sólo pueden viajar a los dos nodos o desde éstos. El nodo en un extremo coloca las tramas en los medios y el nodo en el otro extremo las saca de los medios del circuito punto a punto.

En redes punto a punto, si los datos sólo pueden fluir en una dirección a la vez, está operando como un enlace half-duplex. Si los datos pueden fluir con éxito a través del enlace desde cada nodo simultáneamente, es un enlace full-duplex.

Los Protocolos de capa de enlace podrían proveer procesos más sofisticados de control de acceso a los medios para las topologías lógicas punto a punto, pero esto agregaría un gasto innecesario al protocolo.

Redes punto a punto lógicas

Los nodos de los extremos que se comunican en una red punto a punto pueden estar conectados físicamente a través de una cantidad de dispositivos intermedios. Sin embargo, el uso de dispositivos físicos en la red no afecta la topología lógica. Los nodos de origen y destino pueden estar conectados indirectamente entre sí a través de una distancia geográfica. En algunos casos, la conexión lógica entre nodos forma lo que se llama circuito virtual. Un circuito virtual es una conexión lógica creada dentro de una red entre dos dispositivos de red. Los dos nodos en cada extremo del circuito virtual intercambian las tramas entre sí. Esto ocurre incluso si las tramas están dirigidas a través de dispositivos intermediarios. Los circuitos virtuales son construcciones de comunicación lógicas utilizadas por algunas tecnologías de la Capa 2.

El método de acceso al medio utilizado por el protocolo de enlace de datos se determina por la topología lógica punto a punto, no la topología física. Esto significa que la conexión lógica de punto a punto entre dos nodos puede no ser necesariamente entre dos nodos físicos en cada extremo de un enlace físico único.

Topología multi-acceso

Una topología lógica multi-acceso permite a una cantidad de nodos comunicarse utilizando los mismos medios compartidos. Los datos desde un sólo nodo pueden colocarse en el medio en cualquier momento. Todos los nodos ven todas las tramas que están en el medio, pero sólo el nodo al cual la trama está direccionada procesa los contenidos de la trama.

Hacer que varios nodos compartan el acceso a un medio requiere un método de control de acceso al medio de enlace de datos que regule la transmisión de datos y, por lo tanto, reduzca las colisiones entre las diferentes señales.

Los métodos de control de acceso al medio utilizado por las topologías multi-acceso son generalmente CSMA/CD o CSMA/CA. Sin embargo, métodos de paso de token pueden también utilizarse.

Un número de técnicas de control de acceso a los medios está disponible para este tipo de topología lógica. El protocolo de capa de enlace de datos especifica el método de control de acceso al medio que proporcionará el balance apropiado entre el control de trama, la protección de trama y la sobrecarga de red.

Topología de anillo

En una topología lógica de anillo, cada nodo recibe una trama por turno. Si la trama no está direccionada al nodo, el nodo pasa la trama al nodo siguiente. Esto permite que un anillo utilice una técnica de control de acceso al medio llamada paso de tokens.

Los nodos en una topología lógica de anillo retiran la trama del anillo, examinan la dirección y la envían si no está dirigida para ese nodo. En un anillo, todos los nodos alrededor del anillo entre el nodo de origen y de destino examinan la trama.

Existen múltiples técnicas de control de acceso a los medios que podrían usarse con un anillo lógico, dependiendo del nivel de control requerido. Por ejemplo: sólo una trama a la vez es generalmente transportada por el medio. Si no se están transmitiendo datos, se colocará una señal (conocida como token) en el medio y un nodo sólo puede colocar una trama de datos en el medio cuando tiene el token.

DIRECCIONAMIENTO DEL CONTROL DE ACCESO AL MEDIO Y TRAMADO DE DATOS.

Protocolos de la capa de enlace de datos: Trama

Recuerde que a pesar de que hay muchos protocolos de capa de enlace de datos diferentes que describen las tramas de la capa de enlace de datos, cada tipo de trama tiene tres partes básicas:  

-Encabezado
-datos
- tráiler.

Todos los protocolos de capa de enlace de datos encapsulan la PDU de la capa 3 dentro del campo de datos de la trama. Sin embargo, la estructura de la trama y los campos contenidos en el encabezado y tráiler varían de acuerdo con el
protocolo.  El protocolo de capa de enlace de datos describe las características requeridas para el transporte de paquetes a través de diferentes medios. Estas características del protocolo están integradas en la encapsulación de la trama. Cuando la trama llega a su destino y el protocolo de capa de enlace de datos saca la trama del medio, la información de tramado es leída y descartada.

No hay una estructura de trama que cumpla con las necesidades de todos los transportes de datos a través de todos los tipos de medios. Como se muestra en la figura, según el entorno, la cantidad de información de control que se necesita en la trama varía para coincidir con los requisitos de control de acceso al medio de los medios y de la topología lógica.




Tramado: función del encabezado

Como se muestra en la figura, el encabezado de trama contiene la información de control especificada por el protocolo de capa de enlace de datos para la topología lógica específica y los medios utilizados. 

La información de control de trama es única para cada tipo de protocolo. Es utilizada por el protocolo de la Capa 2 para proporcionar las características demandadas por el entorno de comunicación. 

Los campos típicos del encabezado de trama incluyen:
- Campo inicio de trama: indica el comienzo de la trama
- Campos de dirección de origen y destino: indica los nodos de origen y destino en los medios
- Prioridad/Calidad del Campo de servicio: indica un tipo particular de servicio de comunicación para el procesamiento
- Campo tipo: indica el servicio de la capa superior contenida en la trama
- Campo de control de conexión lógica: utilizada para establecer la conexión lógica entre nodos 
- Campo de control de enlace físico: utilizado para establecer el enlace a los medios 
- Campo de control de flujo: utilizado para iniciar y detener el tráfico a través de los medios
- Campo de control de congestión: indica la congestión en los medios

Los nombres de los campos mencionados son campos no específicos enumerados como ejemplos. Diferentes protocolos de capa de enlace de datos pueden utilizar diferentes campos de los mencionados. Debido a que los fines y funciones de los protocolos de capa de enlace de datos están relacionados a las topologías específicas y a los medios, cada protocolo debe examinarse para tener una comprensión detallada de su estructura de trama.

Direccionamiento: hacia dónde se dirige la trama

La capa de enlace de datos proporciona direccionamiento que es utilizado para transportar la trama a través de los medios locales compartidos. Las direcciones de dispositivo en esta capa se llaman direcciones físicas. El direccionamiento de la capa de enlace de datos está contenido en el encabezado de la trama y especifica el nodo de destino de la trama en la red local. El encabezado de la trama también puede contener la dirección de origen de la trama.

Debido a que la trama sólo se utiliza para transportar datos entre nodos a través del medio local, la dirección de la capa de enlace de datos sólo se utiliza para entregas locales. Las direcciones en esta capa no tienen significado más allá de la red local. Compare esto con la Capa 3, donde las direcciones en el encabezado del paquete son transportadas desde el host de origen al host de destino sin importar la cantidad de saltos de la red a lo largo de la ruta.

Requisitos de direccionamiento
La necesidad de direccionamiento de la capa de enlace de datos en esta capa depende de la topología lógica.  Las topologías punto a punto, con sólo dos nodos interconectados, no requieren direccionamiento. Una vez en el medio, la trama sólo tiene un lugar al cual puede ir. 

Debido a que las topologías de anillo y multiacceso pueden conectar muchos nodos en un medio común, se requiere direccionamiento para esas tipologías. Cuando una trama alcanza cada nodo en la topología, el nodo examina la dirección de destino en el encabezado para determinar si es el destino de la trama. 



Tramado: función del Tráiler

Los protocolos de la capa de enlace de datos agregan un tráiler en el extremo de cada trama. El tráiler se utiliza para determinar si la trama llegó sin errores. Este proceso se denomina detección de errores. Observe que es diferente de la corrección de errores. La detección de errores se logra colocando un resumen lógico o matemático de los bits que comprenden la trama en el tráiler.

Protocolos de capa de enlace de datos: Trama

En una red TCP/IP, todos los protocolos de la Capa 2 OSI trabajan con el protocolo de Internet en la Capa 3. Sin embargo, el protocolo de la Capa 2 real utilizado depende de la topología lógica de la red y de la implementación de la capa física. Debido al amplio rango de medios físicos utilizados a través de un rango de topologías en interconexión de redes, hay una gran cantidad correspondiente de protocolos de la Capa 2 en uso. 

Tecnología LAN
Una Red de área local generalmente utiliza una tecnología de ancho de banda alto que es capaz de sostener gran cantidad de hosts. El área geográfica relativamente pequeña de una LAN (un único edificio o un campus de varios edificios) y su alta densidad de usuarios hacen que esta tecnología sea rentable.

Tecnología WAN
Sin embargo, utilizar una tecnología de ancho de banda alto no es generalmente rentable para redes de área extensa que cubren grandes áreas geográficas (varias ciudades, por ejemplo). El costo de los enlaces físicos de larga distancia y la tecnología utilizada para transportar las señales a través de esas distancias, generalmente, ocasiona una menor capacidad de ancho de banda. 

La diferencia de ancho de banda normalmente produce el uso de diferentes protocolos para las LAN y las WAN.


Protocolo Ethernet para LAN
Ethernet es una familia de tecnologías de interconexión de redes que se define en los estándares 802.2 y 802.3. Los estándares de Ethernet definen los protocolos de la Capa 2 y las tecnologías de la Capa 1. Ethernet es la tecnología LAN más ampliamente utilizada y soporta anchos de banda de datos de 10, 100, 1000, o 10 000 Mbps. 

El formato básico de la trama y las subcapas del IEEE de las Capas OSI 1 y 2 siguen siendo los mismos para todas las formas de Ethernet. Sin embargo, los métodos para detectar y colocar en los medios varían con las diferentes implementaciones.