sábado, 28 de febrero de 2015

LAN VIRTUALES (VLAN)

Una VLAN (Red de área local virtual o LAN virtual) es una red de área local que agrupa un conjunto de equipos de manera lógica y no física.
Efectivamente, la comunicación entre los diferentes equipos en una red de área local está regida por la arquitectura física. Gracias a las redes virtuales (VLAN), es posible liberarse de las limitaciones de la arquitectura física (limitaciones geográficas, limitaciones de dirección, etc.), ya que se define una segmentación lógica basada en el agrupamiento de equipos según determinados criterios (direcciones MAC, números de puerto, protocolos, etc.).
En esta imagen podemos ver la diferencia entre una LAN e tipo tradicional y una VLAN.
Red LAN tradicional   VLAN

Tipos de VLAN

Existen los siguientes tipos de LAN's virtuales

-VLAN basada en puertos: cada puerto físico del switch está configurado con una lista de acceso especificando la membresía a un conjunto de VLAN's

-VLAN basada en MAC: un switch es configurado con una lista de acceso mapeando las direcciones individuales MAC de los miembros de la LAN

-VLAN basada en protocolo: los dispositivos son asignados a una VLAN cumpliendo ciertos criterios tales como: tipo de protocolo (todos los IP, todos los IPX, etc.) y dirección de subred IP


Ventajas de las VLAN

Los principales beneficios de utilizar las VLAN son los siguientes:

· Seguridad: los grupos que tienen datos sensibles se separan del resto de la red, disminuyendo las posibilidades de que ocurran violaciones de información confidencial. 

· Reducción de costo: el ahorro en el costo resulta de la poca necesidad de actualizaciones de red caras y más usos eficientes de enlaces y ancho de banda existente.

· Mejor rendimiento: la división de las redes planas de Capa 2 en múltiples grupos lógicos de trabajo (dominios de broadcast) reduce el tráfico innecesario en la red y potencia el rendimiento.

· Mitigación de la tormenta de broadcast: la división de una red en las VLAN reduce la cantidad de dispositivos que pueden participar en una tormenta de broadcast. La segmentación de LAN impide que una tormenta de broadcast se propague a toda la red. 
Red de Area Local (LAN) 

Una red de area local (LAN: Local Area Network) es un grupo de computadoras y dispositivos asociados que comparten una linea de comunicaciones o un acceso inalámbrico y típicamente comparten los recursos servidores dentro de una área Geográfica pequeña (por ejemplo dentro de un edificio). Usualmente estos servidores tienen aplicaciones o datos almacenados y se comparten por múltiples usuarios de computadoras. 

Red de Área Metropolitana (MAN)

Una red de este tipo abarca toda una ciudad. El ejemplo mas conocido de una MAN es la red de televisión por cable disponible en muchas ciudades. Este sistema creció a partir de los primeros sistemas de antena comunitaria en áreas donde la recepción de la televisión al aire era pobre.

La televisión por cable no es solamente una MAN. desarrollos recientes en el acceso inalámbrico a alta velocidad a Internet dieron como resultado otra MAN, que se estandarizó como IEEE 802.16



Red de Area Local Inalámbrica (WLAN)

Una LAN inalámbrica es una en donde un usuario puede conectarse a una red a través de enlaces de radiofrecuencia sin cables, cada computadora o dispositivo tiene un módem de radio y una antena a través de las que puede comunicarse con otros sistemas. La norma IEEE 802.11 especifica las tecnologías WLAN. 

Estas redes se están haciendo cada vez mas comunes en casas y oficinas pequeñas, donde instalar Ethernet se considera muy problemático, así como en oficinas ubicadas en sitios antiguos y otros lugares de este estilo.


Especificaciones 802.11 

La familia de especificaciones 802.11 para una WLAN fue desarrollada por un grupo de trabajo internacional del Instituto de Ingenieros Electricos y Electrónicos (IEEE). Actualmente hay cuatro especificaciones en la familia 802.11, 802.11a, 802.11b y 802.11g. Todas ellas usan el protocolo Ethernet y CSMA/CA para compartir el acceso. La norma aprobada más reciente es la 802.11g, que ofrece transmisión inalambrica sobre cortas distancias hasta 54 Mbps comparada con los 11 Mbps de la 802.11b. Estas dos normas operan en la banda no licenciada de 2.4 GHz y son compatibles entre sí.La norma 802.11b (a menuda llamada Wi-Fi) es retrocompatible con la 802.11 que es la primera de toda esta familia de normas. La norma 802.11a aplica a sistemas ATM y se usa en puntos de acceso de concentración. Opera en frecuencias entre 5 GHz y 6 GHz y mediante su multiplezado OFDM se alcanzan velocidades de hasta 54 Mbps, pero se usa comunmente velocidades de 6 Mbps, 12 Mbps y 24 Mbps. Por trabajar en otra frecuencia no es compatible con las otras normas, Pero es util para el caso de que la interferencia en 2,4 GHz sea elevada.


sábado, 21 de febrero de 2015

Con la entrada anterior se nos plantea una duda que espero aclararla... ¿Qué es un dominio de colisión? y ¡Cual es su diferencia con un dominio de difusión o broadcast?

En el diseño de una red se debe tener especial cuidado  con los llamados Dominios de Colisión y Dominio de difusión (Broadcast)


Dominio de colisión: Un dominio de colisión es un grupo de dispositivos que se conectan al mismo medio físico, de tal modo que cuando dos dispositivos envían datos al mismo tiempo, dichos datos colisionaran y llegara dañados a su destino. El resultado de tener un dominio de colisión que afecte a varias maquinas es un excesivo uso del ancho de banda, y una red bastante lenta. 

Para remediarlo existe la posibilidad de implementar en la Red un conmutador o Switch que hará la función de segmentar los dominios de colisión, esto lo hace al considerar cada uno de sus puertos como un solo dominio de colisión con lo que solo se conectara un dispositivo a dicho dominio y sera quien transmita, para esto hace uso de la microsegmentacion, a diferencia de un hub o repetidor en donde todos sus puertos son un solo dominio de colisión lo que hace que todos los dispositivos que se conecten a cualquier puerto de vean afectados tras un choque de señales.


Dominio de difusión. Es un red lógica de dispositivos que comparten básicamente la misma subred y la misma puerta de enlace, por lo que todos los dispositivos dentro de un mismo dominio de difusión podrán recibir broadcast de los demás hosts, si un host envía un petición de tipo broadcast todos los hosts dentro del mismo dominio lo recibirán sin importar si están conectados al mismo switch o no. Una cantidad inapropiada de estos mensajes de difusión (broadcast) provocara un bajo rendimiento en la red,  una cantidad exagerada (tormenta de broadcast) dará como resultado el mal funcionamiento de la red hasta tal punto de poder dejarla completamente congestionada.


DISPOSITIVOS DE CAPA 2


Network Interface Card NIC

Las tarjetas de red son consideradas dispositivos de capa 2 porque cada una trae un código único de dirección física llamada MAC Address, que es usada para el control de comunicaciones de datos para el host dentro de la LAN, y controla el acceso al medio.


Bridge o Puente

Un bridge es un dispositivo diseñado para crear dos o más segmentos de red en una LAN, donde cada segmento es un dominio de colisión separado. Así que filtran el tráfico en la LAN para mantener el tráfico local de LAN como local, y permitir la conectividad con otros segmentos de tráfico específicamente dirigido ahí, así que nos hacen disponer de mayor ancho de banda para el intercambio válido de datos.


Sus Propiedades son:

· Son más “inteligentes” que los concentradores. Porque pueden analizar los frames entrantes y enviarlos dirigidos basándose en su información de dirección.

· Los puentes reciben y pasan paquetes entre dos o más segmentos de LAN

· Crean múltiples dominios de colisión, permitiendo que más de un dispositivo transmita si que haya colisiones.

· Los puentes mantienen tablas de direcciones MAC.

                               

Este es un ejemplo de cómo se usa un Bridge,y se define por sus funciones de capa 2 filtrando tramas, y para lograrlo construyen tablas con todas las direcciones MAC localizadas en un segmento de red y las asocia a sus respectivos puertos.
Switch


El Switch de capa 2, como el repeater, el hub y el hub, es usado para conexiones múltiples de puente. Frecuentemente reemplazan a los hubs, y trabajan con el cable existente de red para dar una interrupción mínima de red en las redes existentes.


Switch

Son dispositivos que operan en la capa de enlace de datos y como el bridge, permite que múltiples segmentos de LAN sean conectados dentro de una red más grande. Como los puentes, envían el tráfico basándose en su dirección MAC, y como el procedimiento es hecho por hardware en lugar de software, es mucho más rápido. Cada puerto del switch actúa como un microbridge, y este proceso se llama microsegmentación, y cada puerto actúa como un bridge separado, y cuando se conecta a un solo host, le da todo el ancho de banda del medio a dicho host.

                                        
                                    

HUB

Este dispositivo, a pesar de pertenecer a la capa 1 (Física) considero importante incluirlo dentro de esta cñasificación, ya ue nos dará la amplitud de poderlo comparar con los dispositivos previamente mencionados que si trabajan con capa dos, y establecer sus diferencias.

El Hub básicamente extiende la funcionalidad de la red (LAN) para que el cableado pueda ser extendido a mayor distancia, es por esto que puede ser considerado como una repetidor. Este transmite los “Broadcasts” a todos los puertos que contenga, esto es, si contiene 8 puertos, todas las computadoras que estén conectadas a dichos puertos recibirán la misma información.

Un concentrador, o repetidor, es un dispositivo de emisión bastante sencillo. Los concentradores no logran dirigir el tráfico que llega a través de ellos, y cualquier paquete de entrada es transmitido a otro puerto (que no sea el puerto de entrada). Dado que cada paquete está siendo enviado a través de cualquier otro puerto, aparecen las colisiones de paquetes como resultado, que impiden en gran medida la fluidez del tráfico. Cuando dos dispositivos intentan comunicar simultáneamente, ocurrirá una colisión entre los paquetes transmitidos, que los dispositivos transmisores detectan. Al detectar esta colisión, los dispositivos dejan de transmitir y hacen una pausa antes de volver a enviar los paquetes.
Representación de un HUB (Cisco)




viernes, 20 de febrero de 2015

LA HORA DE LOS PAPERS...


En esta entrada les traigo unas recomendaciones de papers que son excelentes para complementar la lectura respecto al tema, espero que el inglés no implique un problema, hay dos de ellos que estan en ese idioma. Ojalá y sean de mucha utilidad... (presionar los vínculos para visualizarlos)



http://www.idosi.org/mejsr/mejsr18%288%2913/9.pdf  .Review of Error Detection of Data Link Layer in Computer Network


http://www.isa.uniovi.es/docencia/redes/Apuntes/tema3.pdf LA CAPA DE ENLACE. Universidad de Oviedo.








DETECCIÓN DE ERRORES.

Los mecanismos de detección de errores se basan en la inclusión de información redundante en la trama, es decir, una serie de bits adicionales que representan de algún modo el contenido del mensaje transmitido, y que se envían conjuntamente con el propio mensaje. Aunque ningún método puede asegurar al cien por cien la detección de todos los errores que se pueden producir, un método muy efectivo podría ser la retransmisión de la trama una o varias veces, para ser comparada. Incluso se podrían corregir los errores detectados mediante la comparación de un número impar de transmisiones de la misma trama. Esto, lógicamente, reduce enormemente la capacidad del enlace, por lo que se buscan otras técnicas que mantengan unas buenas prestaciones pero con una cantidad menor de información redundante. 

Paridad horizontal y vertical. Un mecanismo de paridad horizontal, como el utilizado en las transmisiones asíncronas, consiste en añadir a un grupo de bits de datos (entre 5 y 8), un bit más con valor 0 ó 1 según corresponda para que el número de bits 1 total sea par (paridad par) o impar (paridad impar). Así por ejemplo, si se trabaja con paridad impar, el dato “0100001” se transforma en el “01000011” porque se necesita el último 1 para que el byte tenga un número impar de unos. Por el contrario, si trabajásemos con paridad par el resultado sería “01000010”.

Mediante este método se pueden detectar todos los errores de un único bit en el grupo. Sin embargo, la probabilidad de detectar un error que afecte a varios bits es sólo 0.5, lo que no es mucho. En concreto, la paridad puede detectar únicamente errores que afectan a un número impar de bits. 

La detección de errores se puede mejorar considerablemente añadiendo a cada grupo de Q caracteres que se envían sucesivamente, uno más que contenga bits de paridad para los bits que ocupan la misma posición en los Q caracteres transmitidos. A esto se le conoce como paridad vertical.

Este método combinado es capaz de detectar todos los errores de 1, 2 ó 3 bits en el bloque, todos los errores con un número impar de bits erróneos y algunos con número par, ya que por ejemplo, no detectaría un error de cuatro bits como el señalado con las “X” en la figura. Detectará también todas las ráfagas de bits erróneos de longitud igual o inferior a 8. 

Chequeo por suma: checksum. 

El emisor de la trama realiza la suma de los bytes o caracteres a transmitir en todos o en determinados campos de la trama. Esta suma realizada habitualmente en módulo 256 ó 65536, generará 8 ó 16 bits respectivamente de información para el control de errores, que se añadirán al final de la trama o del campo que se supervisa. Generalmente, si el tamaño del bloque a comprobar es suficientemente largo, el byte extra resulta insignificante comparado con el margen adicional de seguridad que se logra. 

Substituye generalmente al método de paridad horizontal proporcionando un nivel de detección de errores similar. Esta técnica detecta errores de 2 bits en una fila o dos filas, pero falla en la detección de un número par de bits erróneos en una columna. También es importante señalar que esta técnica no es capaz de detectar errores de secuencia: es decir, se produce una suma idéntica cuando el mensaje se envía en cualquier otro orden al azar.



Códigos de redundancia cíclica (CRC). 

El uso del código polinomial, más conocido como redundancia cíclica (CRC), está muy extendido. Proporciona una buena detección de errores con poca información redundante adicional. Normalmente se le añaden a la trama 16 ó 32 bits de información para la detección de errores mediante el CRC. 

El método consiste básicamente en que el emisor trata la información a transmitir como una cadena de bits, y la convierte en un polinomio binario (donde los valores de los coeficientes son cero o uno). Este polinomio binario se multiplica por el grado del polinomio generador que es conocido tanto por el emisor como por el receptor, y posteriormente se divide por él en modulo 2 (no se llevan acarreos en la suma ni la división), generándose un resto de grado una unidad inferior al polinomio generador. Los coeficientes (ceros o unos) de este resto se añaden a la trama como código de detección de errores. Un polinomio generador de orden Q generará un código de Q bits.






El receptor tratará a toda la trama como un polinomio (información y código de detección de errores conjuntamente) y lo dividirá en módulo dos por el mismo polinomio generador que uso el emisor. Si el resto de la división es cero, no se habrán detectado errores en la transmisión. 

El ejemplo anterior muestra el proceso en el emisor utilizando un polinomio generador de orden 4 que genera un código de detección de errores de 4 bits. Se puede comprobar que el polinomio correspondiente a la trama transmitida es divisible por el polinomio generador utilizado en el método anterior y que, por lo tanto, la transmisión estará libre de errores si, al hacer la división el receptor, el resto obtenido es cero. 
PROTOCOLOS DE LA CAPA DE ENLACE DE DATOS

Protocolo Simplex sin restricciones

Dos procedimientos diferentes, una transmisor y uno receptor. El trasmisor se ejecuta en la capa de enlace de datos de la maquina de origen y el receptor se ejecuta en la capa de enlace de datos de la maquina de destino. El trasmisor esta en un ciclo while infinito que solo envía datos a la línea rápidamente. El cuerpo del ciclo consiste en tres acciones: obtener un paquete de la capa de red, construir un marco de salidas y enviar el marco a su destino. El receptor espera que algo ocurra y en algún momento el marco llega. La llamada remueve el marco recién llegado del buffer de hardware y lo pone en la variable r. Por ultimo, la parte de datos se pasa a la capa de red y la capa de enlace de datos se retira para esperar el siguiente marco.

Protocolo Simplex de Parada y Espera

El problema principal es como evitar que transmisor enviando datos de mayor velocidad de la que este ultimo puede procesarlos. Una solución mas general para hacer que el receptor proporcione realimentación al trasmisor. Tras haber pasado un empaque a su capa de red, el receptor envía un pequeño marco ficticio de regreso al trasmisor, autoriza al trasmisor para trasmitir el siguiente marco. Los protocolos en los que el trasmisor envía un marco y luego espera un acuse antes de continuar se denomina de parada y espera.

Protocolo Simplex para un canal ruidoso

Una vez que el marco se recibe correctamente, el receptor envía un acuse de regreso al trasmisor, es aui donde surge un problema potencial. Basta con un numero de secuencia de 1 bit (0 o 1). En cada instante cualquier marco de entrada que contenga un numero de secuencia equivocada se rechaza como duplicado.

Protocolo de Ventana Corrediza

Al llegar un marco de datos, en lugar de enviar inmediatamente un marco de control independiente, el receptor se aguanta y espera hasta que la capa de red le pase el siguiente paquete. El acuse se anexa al marco de datos de salida. La técnica de retardar temporalmente los acuses para que puedan colgarse del siguiente marco de datos de salida se conoce como incorporación. La ventaja principal de usar la incorporación en lugar de tener marcos de acuse independiente es un mejor aprovechamiento del ancho de banda disponible del canal. Además, el envío de menos marcos implica menos interrupciones.

Protocolo de Ventana Corrediza de un bit

Usa parada y espera ya que el trasmisor envía un marco y espera su acuse antes de trasmitir el siguiente. Normalmente una de las dos capas de enlace de datos es la que comienza. La maquina que arranca obtiene el primer paquete de su capa de red, construye un marco a partir de el y lo envía. Al llegar la capa de enlace de datos receptora lo revisa para ver si es un duplicado. Si el marco es el esperado se pasa la capa de red y la ventana del receptor se recorre hacia arriba. El campo de acuse contiene el numero del ultimo marco recibido sin error. Si este numero concuerda con el numero de secuencia del marco que esta tratando debe enviar al trasmisor, este sabe que ha terminado con el marco almacenado en el buffer y que puede obtener el siguiente paquete de su capa de red.

Protocolo que usa regresar n

Hay dos enfoques básicos para manejar los errores durante el entubamiento llamado regresa n ,el receptor simplemente descarta todos los marcos subsecuentes. La capa de enlace de datos se niega a aceptar cualquier marco excepto el siguiente que debe entregar a la capa de red. Si la ventana del trasmisor se llena antes de terminar el temporizador, el entubamiento comenzara a vaciarse. En algún momento, el trasmisor terminara de esperar y retransmitirá todos los marcos no conocidos en orden comenzando por el dañado o perdido.

Protocolo usando repetición selectiva

La otra estrategia llamada repetición selectiva, almacena todos los marcos correctos a continuación del equivocado. Cuando el trasmisor por fin se da cuenta que algo esta mal, solo retransmite el marco malo, no todos sus sucesores

Protocolo Punto a Punto

Realiza detección de errores, y permite la verificación de autenticidad.

  1. Un método de enmarcado que delinea sin ambigüedades el final de un marco y el inicio del siguiente. El formato de marco también maneja la detección de errores
  2. Un protocolo de control de enlace para activar líneas, probarlas, negociar opciones y desactivarlas ordenadamente cuando ya no son necesarias. Este protocolo se llama LCP
  3. Un mecanismo para negociar opciones de cada red con independencia del protocolo de red usado. El métod escogido consiste en tener un NCP distinto para cada capa de red reconocida
ENTRAMADO

A fin de proporcionar servicios a la capa de red, la de enlace de datos debe utilizar los servicios de la capa física. Lo que hace la capa física es aceptar un flujo de bits puros e intenta entregarlo al destino. No se garantiza que ese flujo de bits este libre de errores. La cantidad de bits recibidos puede ser menor, igual o mayor a la cantidad de bits transmitidos, y estos pueden tener diferentes valores. Es responsabilidad de la capa de enlace de datos detectar, y de ser necesario, corregir los errores.

El método común es que la capa de enlace de datos divida el flujo de bits en tramas separadas y que calcule la suma de verificación de cada trama. Cuando una trama llega a su destino, se recalcula la suma de verificación. Si la suma de verificación calculada es distinta de la contenida en la trama, la capa de enlace sabe que ha ocurrido un error y toma medidas para manejarlo.


Una manera de lograr esta división en tramas es introducir intervalos de tiempo entre las tramas. Sin embargo, las redes pocas veces ofrecen garantía sobre este método, por lo que es posible que estos intervalos sean eliminados o que puedan introducirse otros intervalos durante la transmisión. Otros métodos de división de tramas son:


Conteo de caracteres

Este método se vale de un campo en el encabezado para especificar el número de caracteres en la trama. Cuando la capa de enlace del destino ve la cuenta de caracteres sabe cuantos caracteres siguen y donde esta el fin de esa trama. El problema con este método es que la cuenta puede alterarse por un error de transmisión; en la actualidad no se utiliza este método.

Banderas con relleno de caracteres

Este método evita el problema de tener que sincronizar nuevamente después de un error, haciendo que cada trama inicie y termine con bytes especiales. La mayoría de los protocolos utilizan un byte llamado bandera o indicador, como delimitador del inicio y el final de una trama. De esta manera si el receptor pierde la sincronía, simplemente busca la bandera para encontrar el final o inicio de la trama actual. Cuando se utiliza este método para transmitir datos binarios, surge un problema: se puede dar el caso con mucha facilidad de que el patrón de bits de la bandera aparezca en los datos, lo que interferirá con el entramado. Una forma de resolver este problema es hacer que la capa de enlace del emisor inserte un byte de escape especial (ESC) justo antes de cada bandera. La capa de enlace del receptor quita el byte de escape antes de entregar los datos a la capa de red. Esta técnica se conoce como relleno de caracteres. Una desventaja importante del uso de esta técnica de entramado es que está fuertemente atada a los caracteres de 8 bits y no todos los códigos utilizan los 8 bits. P.E.: UNICODE no utiliza 8 bits



Banderas con relleno de bits

A medida que se desarrollaron las redes las desventajas de incorporar la longitud del código de caracteres en el mecanismo de entramado se volvieron mas obvias por lo que tuvo que desarrollarse una nueva técnica. La nueva técnica permite que las tramas de datos contengan un número arbitrario de bits y admite código de caracteres con un número arbitrario de bits por carácter. Cada trama inicia y termina con un patrón especial de bits 0111110. Cada vez que la capa de enlace del emisor encuentra 5 unos consecutivos en los datos, automáticamente inserta un bit 0 en el flujo de bits saliente. Esto se conoce como relleno de bits el cual es análogo al relleno de caracteres. Cuando el receptor ve 5 bits 1 de entrada consecutivos, seguidos de un bit 0 automáticamente extrae el bit 0 de relleno.




CONTROL DE ERRORES

La manera normal de asegurar la entrega confiable de datos es proporcionar retroalimentación al emisor sobre lo que esta ocurriendo del otro lado de la línea. Por lo general el protocolo exige que el receptor regrese tramas de control especiales que contengan confirmaciones de recepción positivas o negativas de las tramas que llegan. Si el emisor recibe una confirmación de recepción positiva de una trama, sabe que la trama llegó correctamente. Por otra parte, una confirmación de recepción negativa significa que algo falló y que la trama debe transmitirse otra vez.

Una complicación adicional surge de la posibilidad de que los problemas de hardware causen la desaparición de una trama completa. Un protocolo en el cual el emisor envía una trama y luego espera una confirmación de recepción, se quedara esperando eternamente si se pierde una trama completa debido a una falla de hardware.

Esta posibilidad se maneja introduciendo temporizadores en la capa de enlace. Cuando el emisor envía una trama por lo general también inicia un temporizador. Éste se ajusta de modo que expire cuando haya transcurrido un intervalo suficiente para que la trama llegue a su destino. Si la trama o la confirmación de recepción se pierden, el temporizador expirará, alertando al emisor sobre el problema. Aunque las tramas pueden transmitirse muchas veces existe el peligro de que el receptor acepte la trama dos o mas veces y que pase a la capa de red mas de una vez.


CONTROL DE FLUJO

Otro tema del diseño es qué hacer con un emisor que quiere transmitir tramas de manera sistemática y a mayor velocidad que aquella con la que puede aceptarlos el receptor. Esta situación puede ocurrir cuando el emisor opera una computadora rápida y el receptor una lenta. El emisor envía tramas a alta velocidad hasta que satura por completo al receptor. Aunque la transmisión esté libre de errores, en cierto punto el receptor no será capaz de manejar las tramas conforme lleguen y comenzara a perder algunas. Para evitar esta situación se utilizan generalmente dos métodos:

 a).Control de flujo basado en retroalimentación: El receptor regresa información al emisor autorizándolo por enviar más datos o indicándole su estado.

 b).Control de flujo basado en tasa: El protocolo tiene un mecanismo integrado que limita la tasa a la que el emisor puede transmitir los datos.




Fuente. Tanenbaum, Andrew. Redes de computadoras. Cuarta Edición. Pearson.

SERVICIOS PROPORCIONADOS A LA CAPA DE RED


La capa de enlace puede diseñarse para ofrecer varios servicios:

Servicio no orientado a la conexión sin confirmación de recepción.

Este servicio consiste en hacer que la maquina de origen envíe tramas independientes a la máquina de destino sin pedir que ésta confirme la recepción. No se establece una conexión de antemano ni se libera después. Si se pierde una trama debido al ruido en la línea, en la capa de enlace no se realiza ningún intento por detectar la pérdida ni por preocupar la trama. Esta clase de servicio es apropiado cuando la tasa de errores es muy baja. La mayoría de las LAN’s utilizan este tipo de servicio en la capa de enlace de datos.


Servicio no orientado a la conexión con confirmación de recepción.

Cuando se ofrece este servicio tampoco se utilizan conexiones lógicas, pero se confirma de manera individual la recepción de cada trama enviada. De esta manera, el emisor sabe si la trama ha llegado bien o no. Si no han llegado en un tiempo especificado puede enviarse nuevamente. Este servicio es útil en canales inestables, como los de los sistemas inalámbricos. Proporcionar confirmaciones de recepción en la capa de enlace de datos es una optimización, pero no un requisito. La capa de red siempre puede envía un paquete y esperar que se confirme su recepción.


Servicio orientado a la conexión con confirmación de recepción

Con este servicio, las máquinas de origen y de destino establecen una conexión antes de transferir datos. Cada trama enviada a través de la conexión está numerada, y la capa de enlace garantiza que cada trama enviada llegará a su destino. Este servicio proporciona a los procesos de la capa de red el equivalente de un flujo de bits confiable.

Cuando se utiliza este tipo de servicio las transferencias tienen tres fases distintas:

  a).La conexión se establece haciendo que ambos lados inicien las variables y los contadores necesarios para seguir la pista de las tramas que han sido recibidas y las que no.

   b).Se transmiten las tramas.

   c).La conexión se cierra y libera las variables que se utilizan para mantener la conexión y el seguimiento de las tramas.




CAPA DE ENLACE DE DATOS

En esta entrada del blog, empezaremos a hablar acerca de la segunda capa del modelo OSI, la de enlace de datos. Este nivel de enlace de datos transforma el nivel físico, un simple medio de transmisión, en un enlace fiable y es responsable de la entrega nodo a nodo. hace que el nivel físico aparezca ante el nivel superior (nivel de red) como un medio libre de errores.

Entre las responsabilidades específicas de la capa de enlace de datos se incluyen las siguientes:

   - Tramado. El nivel de enlace de datos divide el flujo de bits recibidos del nivel de red en unidades de datos manejables denominadas tramas.

   - Direccionamiento físico. Si es necesario distribuir las tramas por distintos sistemas de la red, el nivel de enlace de datos añade una cabecera a la trama para definir la dirección física del emisor (dirección fuente) y/o receptor (dirección destino) de la trama. Si hay que enviar la trama a un sistema fuera de la red del emisor, la dirección de receptor es la dirección del dispositivo que conecta su red con la siguiente.

   - Control de flujo. Si la velocidad a la que el receptor recibe los datos es menor que la velocidad de transmisión del emisor, el nivel de enlace de datos impone un mecanismo de control de flujo para prevenir el desbordamiento del receptor.

  - Control de errores. la capa de enlace de datos añade fiabilidad al nivel físico al incluir mecanismos para detectar y retransmitir las tramas defectuosas o perdidas. También usa un mecanismo para prevenir la duplicación de tramas. El control de errores se consigue normalmente a través de una cola que se añade al final de la trama.


Subcapas de enlace de datos:


-Control de enlace lógico

El control de enlace lógico (LLC) coloca información en la trama que identifica qué protocolo de capa de red está siendo utilizado por la trama. Esta información permite que varios protocolos de la Capa 3, tales como IP e IPX, utilicen la misma interfaz de red y los mismos medios.

-Control de acceso al medio

El control de acceso al medio (MAC) proporciona a la capa de enlace de datos el direccionamiento y la delimitación de datos de acuerdo con los requisitos de señalización física del medio y al tipo de protocolo de capa de enlace de datos en uso.


Fuente. Forouzan, Behrouz . Transmisión de datos y redes de comunicaciones. Segunda Edición. McGraw Hill.
EL MODELO DE REFERENCIA OSI



El modelo de referencia OSI es el modelo principal para las comunicaciones por red. Aunque existen otros modelos, en la actualidad la mayoría de los fabricantes de redes relacionan sus productos con el modelo de referencia OSI, especialmente cuando desean enseñar a los usuarios cómo utilizar sus productos. 

Los fabricantes consideran que es la mejor herramienta disponible para enseñar cómo enviar y recibir datos a través de una red. El modelo de referencia OSI permite que los usuarios vean las funciones de red que se producen en cada capa. Más importante aún, el modelo de referencia OSI es un marco que se puede utilizar para comprender cómo viaja la información a través de una red. Además, puede usar el modelo de referencia OSI para visualizar cómo la información o los paquetes de datos viajan desde los programas de aplicación (por ej., hojas de cálculo, documentos, etc.), a través de un medio de red (por ej., cables, etc.), hasta otro programa de aplicación ubicado en otro computador de la red, aún cuando el transmisor y el receptor tengan distintos tipos de medios de red.

En el modelo de referencia OSI, hay siete capas numeradas, cada una de las cuales ilustra una función de red específica. Si la red se divide en estas siete capas, se obtienen las siguientes ventajas:

       · Divide la comunicación de red en partes más pequeñas y sencillas.

       · Normaliza los componentes de red para permitir el desarrollo y el soporte          de los productos de diferentes fabricantes.

       · Permite a los distintos tipos de hardware y software de red comunicarse            entre sí.

       · Impide que los cambios en una capa puedan afectar las demás capas,                para que se puedan desarrollar con más rapidez.

       · Divide la comunicación de red en partes más pequeñas para simplificar el          aprendizaje.

Las siete capas del modelo OSI son las siguientes: 

        Capa 7: La capa de aplicación
        Capa 6: La capa de presentación
        Capa 5: La capa de sesión
        Capa 4: La capa de transporte
        Capa 3: La capa de red
        Capa 2: La capa de enlace de datos 
        Capa 1: La capa física






jueves, 19 de febrero de 2015

BIENVENIDO!


En este, tu blog de Enlace de Datos, estaremos compartiendo información destacada acerca de esta capa del modelo OSI, esperamos tus comentarios y aportes para el fortalecimiento y crecimiento de este espacio... Ojalá que sea de valiosa utilidad las herramientas que aquí publicamos...