PROTOCOLOS
DE ENRUTAMIENTO
Los protocolos de enrutamiento son el
conjunto de reglas utilizadas por un router cuando se comunica con otros router
con el fin de compartir información de enrutamiento. Dicha información se usa
para construir y mantener las tablas de enrutamiento
Enrutamiento
Estático: su principal problema se plantea en mantener tablas de enrutamiento
estáticas, además de tener que introducir manualmente en los routers toda la
información que contienen, es que el router no puede adaptarse por sí solo a
los cambios que puedan producirse en la topología de la red. Sin embargo, este
método de enrutamiento resulta ventajoso en las siguientes situaciones:
Existe una
sola conexión con un solo ISP. En lugar de conocer todas las rutas globales, se
utiliza una única ruta estática.
Un cliente
no desea intercambiar información de enrutamiento dinámico.
Enrutamiento
Predeterminado: Es una ruta estática que se refiere a una conexión de salida o
Gateway de “último recurso”. El tráfico hacia destinos desconocidos por el
router se envía a dicha conexión de salida. Es la forma más fácil de
enrutamiento para un dominio conectado a un único punto de salida.
Enrutamiento
Dinámico: Los protocolos de enrutamiento mantienen tablas de enrutamiento
dinámicas por medio de mensajes de actualización del enrutamiento, que
contienen información acerca de los cambios sufridos en la red, y que indican
al software del router que actualice la tabla de enrutamiento en consecuencia.
Intentar utilizar el enrutamiento dinámico sobre situaciones que no lo
requieren es una pérdida de ancho de banda, esfuerzo, y en consecuencia de
dinero.
Los
algoritmos de enrutamiento se dividen en:
-Vector
Distancia: Determina la dirección y la distancia hacia cualquier enlace de la
red. Su métrica se basa en lo que se le llama en redes “Numero de Saltos”, es
decir la cantidad de routers por los que tiene que pasar el paquete para llegar
a la red destino, la ruta que tenga el menor numero de saltos es la mas optima
y la que se publicará.
Visualiza
la red desde la perspectiva de los vecinos
-Actualizaciones
periódicas: Transmite copias completas o parciales de las tablas de
enrutamiento
-Convergencia
lenta: Incrementa las métricas a través de las actualizaciones
-Estado de
enlace: También llamado “Primero la Ruta Libre Mas Corta” (OSPF – Open Shortest
Path First), recrea la topología exacta de toda la red.
Su métrica se basa el retardo ,ancho de banda
, carga y confiabilidad, de los distintos enlaces posibles para llegar a un
destino en base a esos conceptos el protocolo prefiere una ruta por sobre otra.
Estos protocolos utilizan un tipo de publicaciones llamadas Publicaciones de
estado de enlace (LSA),que intercambian entre los routers, mediante estas
publicación cada router crea una base datos de la topología de la red completa.
-Buscan una
unión común de la topología de la red.
-Cada
dispositivo calcula la ruta más corta a los otros routers.
-Las
actualizaciones se activan por los eventos (cambios en la topología) de la red.
Transmite
actualizaciones.
MÉTRICA
La métrica es el análisis, y en lo que se basa
el algoritmo del protocolo de enrutamiento dinámico para elegir y preferir una
ruta por sobre otra, basándose en eso el protocolo creará la tabla de
enrutamiento en el router, publicando sólo las mejores rutas. Un protocolo de
enrutamiento utiliza métrica para determinar qué vía utilizar para transmitir
un paquete a través de un Intercambio.
La métrica utilizada por protocolos de
enrutamiento incluyen
Numero de
saltos: Número de routers por los que pasará un paquete.
Pulsos:
Retraso en un enlace de datos usando pulsos de reloj de PC.
Coste:
Valor arbitrario, basado generalmente en el ancho de banda, el coste económico
u otra medida.
Ancho de
banda: Capacidad de datos de un enlace.
Retraso:
Cantidad de actividad existente en un recurso de red, como un router o un
enlace.
Carga:
Cantidad de actividad existente en un recurso de red, como un router o un
enlace. - Fiabilidad: Se refiere al valor de errores de bits de cada enlace de
red.
MTU: Unidad
máxima de transmisión. Longitud máxima de trama en octetos que puede ser
aceptada por todos los enlaces de la ruta.
Los
protocolos de enrutamiento almacenar los resultados de estas cifras en una
tabla de enrutamiento.
Convergencia:
Es el
objetivo principal de todos los protocolos de enrutamiento. Cuando un conjunto
de enrutadores converge significa que todos sus elementos se han puesto de
acuerdo y reflejan la situación real del entorno de red donde se encuentran. La
velocidad con la que los protocolos convergen después de un cambio es una buena
medida de la eficacia del protocolo de enrutamiento.
Distancia
administrativa y métrica:
Es una
medida de la confianza otorgada a cada fuente de información de enrutamiento
Cada protocolo de enrutamiento lleva asociado una distancia administrativa. Los
valores más bajos significan una mayor fiabilidad. Un enrutador puede ejecutar
varios protocolos de enrutamiento a la vez, obteniendo información de una red
por varias fuentes. En estos casos usará la ruta que provenga de la fuente con
menor distancia administrativa de los protocolos de enrutamiento.
Cada protocolo de enrutamiento da prioridad
a los caminos de mayor a menor fiabilidad usando un valor de distancia
administrativa. Es preferible un valor bajo: por ejemplo, una ruta OSPF con una
distancia administrativa de 110 prevalecerá sobre una ruta RIP con una
distancia administrativa de 120.
Algunos
protocolos de enrutamiento dinámicos son:
RIP :
Protocolo de enrutamiento de gateway Interior por vector distancia.
IGRP:
Protocolo de enrutamiento de gateway Interior por vector distancia, del cual es
propietario CISCO.
EIGRP:
Protocolo de enrutamiento de gateway Interior por vector distancia, es una
versión mejorada de IGRP.
OSPF:
Protocolo de enrutamiento de gateway Interior por estado de enlace.
BGP:
Protocolo de enrutamiento de gateway exterior por vector distancia
Protocolos
Internos de Pasarela (Interior Gateway Protocols o IGP)
RIP: Es un
protocolo de enrutamiento Dinámico de vector distancia, esto quiere decir que
su métrica para llegar a una red destino se basa en el numero de saltos.
Es un protocolo abierto a diferencia de por
ejemplo IGRP y EIGRP que son propietarios de Cisco.Es relativamente simple
ideal para redes pequeñas, el numero de saltos máximo hacia un destino es 15
(cuando hablo de numero de saltos , me refiero a la cantidad de routers , por
la que tiene que atravesar el paquete para llegar a destino), ya con 16 la red
se declara como inalcanzable.
Existen dos versiones de este protocolo
versión 1 y 2, la diferencia más importante, es que RIP v1 es lo que se llama
un Protocolo con clase, lo que significa que cuando cuando publica las tablas
de enrutamiento, este no adjunta las mascaras de subred.
En cambio Rip v2 es un Protocolo sin clase,
que si adjunta la mascara de subred, por lo que permite el uso de VLSM, CIDR,
sumarización.
Otra diferencia es que RIP v1 publica sus
actualizaciones en forma de Broadcast, es decir a todos los equipos de la red,
mientras que RIP v2 lo hace en modo de Multicast, es decir solo a un grupo de
host de una red.
Resumiendo las características de las 2
versiones:
RIP Versión
1:
Protocolo
Abierto
Distancia
Administrativa:120
Protocolo
con clase
Métrica
numero de saltos
Actualizaciones
cada 30 segundos
Envía las
Actualizaciones en forma de Broadcast
Numero
Máximo de Saltos 15
Red Destino
Inalcanzable, se declara como 16 saltos
No Permite
VLSM, CIDR RIP
RIP Versión
2: En lo que difiere es lo siguiente, porque lo demás es lo mismo que el
versión 1 :
Protocolo
sin clase
Envía las
Actualizaciones en forma de Multicast (224.0.0.9)
Permite VLSM, CIDR.
En cisco
router0>enable router0#configure terminal
router0(config)#router rip
router0(config)#version 2
router0(config-router)#network 10.0.0.0
router0(config-router)#network 150.150.0.0
Balanceo por destino
router(config-if)# ip route-cache
El balanceo por destino significa que el router
distribuye los paquetes basado en la dirección de destino. Dadas dos
trayectorias a la misma red, todos los paquetes para el destino 1 en la red
irán por la trayectoria 1; todos los paquetes hacia el destino 2 irán por la
trayectoria 2. Esto preserva el orden de los paquetes, con el riesgo potencial
de no hacer uso de los enlaces de manera desigual. Si un host recibe la mayoría
del tráfico, todos los paquetes irán por ese enlace, lo que deja el ancho de
banda de otros enlaces sin uso. Un número grande de direcciones de destino
lleva a usos más equilibrados de los enlaces. Para lograr un mejor equilibrio,
podemos usar el IOS para construir una entrada de caché de rutas para cada
dirección de destino, en lugar de cada red de destino, como es el caso cuando
sólo existe una trayectoria. De ahí que el tráfico para diferentes hosts dentro
de la misma red de destino pueda usar diferentes trayectorias para llegar a su
destino. La desventaja es que este proceso es altamente demandante para los
routers de core backbone, ya que los requerimientos de proceso y memoria para
mantener el caché son muy pesados
Balanceo por paquete
router(config-if)# no ip route-cache
El balanceo por paquete significa que el router
envía un paquete a la red de destino 1 por la trayectoria 1, el siguiente
paquete, que podría ser también para la red de destino 1, será enviado por la
trayectoria 2, y así. Este método hace un uso más equilibrado de los enlaces,
pero tiene el riesgo potencial de que los paquetes arriben en un orden distinto
al que fueron enviados. EL IOS, excepto el 11.1CC, desactiva la aceleración de
reenvío (forwarding acceleration) por caché de rutas cuando usamos el balanceo
por paquete; porque la información del route cache incluye la interface de
salida. Para el balanceo por paquete, el proceso de reenvío (forwarding)
determina la interface de salida para cada paquete buscando en la tabla de
ruteo y escogiendo la interface menos usada. Así se asegura el uso equilibrado
de los enlaces, pero es una tarea muy intensiva para el procesador que impacta
sobre el desempeño general del forwarding.
Esta forma de balanceo no es recomendable
para interfaces de alta velocidad.
El algunos
routers, disponemos del modo CEF, que es lo mismo que el Forward-cahe, pero
empleando menos recursos.
router(config-if)# Ip cef
router(config-if)# No ip cef
Capa de
Distribución: La capa de distribución es
una de las capas del diseño jerárquico de una red. Es la encargada de conectar
redes locales independientes y controlar el tráfico que circula entre ellas.
Está diseñada para interconectar redes, no hosts individuales.
La capa de distribución garantiza que el
tráfico entre los hosts de una red local Ethernet siga siendo local y sólo se
transfiere el tráfico que está destinado a otras redes.
La capa de distribución filtra el tráfico
entrante y saliente para administrar la seguridad y el tráfico. Proporciona una
conectividad basada en políticas y controla el límite entre las capas de acceso
y de núcleo. Agrega los datos recibidos de la capa de acceso antes de que se
transmitan a la capa núcleo.
Funciones
de la capa de distribución:
Las funciones que proporciona la capa de
distribución en un diseño de red de tres capas son:
-Agregar
redes de armario de cableado a gran escala
-Agregar
dominios de difusión de capa 2 y límites de routing de capa 3
Proporcionar
funciones inteligentes de switching, de routing y de política de acceso a la
red para acceder al resto de la red
-Proporcionar
una alta disponibilidad al usuario final mediante los switches de capa de
distribución redundantes, y rutas de igual costo al núcleo
-Proporcionar
servicios diferenciados a distintas clases de aplicaciones de servicio en el
perímetro de la red
-Proporcionar
un límite de control entre las otras capas
La capa de distribución se crea cuando se
conectan entre sí los dispositivos de la capa de acceso, hubs y switches, a
través de los dispositivos de la capa de distribución, los routers. Los
dispositivos de la capa de acceso se conectan entre sí a través de dispositivos
de la capa de distribución.
Dispositivos
de la capa de distribución:
Los dispositivos de networking que se ubican
en la capa de distribución suelen ser los routers y los switches multicapa.
El dispositivo de capa de distribución es el
centro en los armarios de cableado. Para segmentar los grupos de trabajo y
aislar los problemas de la red, se utiliza un router o un switch multicapa.
Routers de
la capa de distribución:
-Se ubica
en la capa de distribución.
-Conectan
las redes locales entre sí.
-Dirigen el
tráfico y pueden decodificar y leer los mensajes que reciben.
-Utilizan
direcciones IP para reenviar paquetes a otras redes.
-Un puerto
de router se conecta a la conexión WAN y los otros puertos se conectan a las
LAN corporativas.
-Es el
gateway, la puerta de salida o la ruta hacia el exterior, para las LANs.
Switches
multicapa: Es un switch que realiza conmutación de capa 3
Pueden
tener tanto interfaces virtuales como puertos enrutados en el mismo switch
Reenvían el
tráfico de capa 2 o capa 3 mediante hardware, lo que contribuye a un routing
más veloz.
Enlaces
troncales: Estos se configuran entre los dispositivos de la capa de
distribución y la de acceso. Los utilizamos para transportar trafico en
múltiples VLAN en distintos dispositivos del el mismo enlace.
El diseñador de enlaces troncales debe
considerar los patrones de trafico de la red y crear una estrategia para que las
VLAN funcionen correctamente.
Enlaces
redundantes: Aquí nos permite configurar los dispositivos para que sea
balanceada la carga del trafico de la red a través de los enlaces.
Topología
de la capa de distribución: La topología de malla parcial, proporciona
suficientes rutas redundantes para asegurar que la red pueda sobrevivir a una
falla en un dispositivo o enlace. Cuando los dispositivos de la capa de
distribución se ubican en el mismo armario de cableado o centro de datos se
interconectan utilizando enlaces Gigabit. Cuando los dispositivos están
separados por distancias más grandes, se utiliza cable de fibra. Es necesaria
una planificación detallada para garantizar que existan suficientes puertos de
fibra disponibles a fin que puedan proporcionar redundancia y el ancho de banda
deseados.
Limitación
del tamaño de los dominios de fallas:
El
diseñador de la red debe tratar de evitar fallas pues estas afectan de manera
considerable en la capa núcleo de una red. En la capa de distribución, los
errores de la red pueden contenerse en un área más pequeña y así afectar a la
menor cantidad de usuarios. Al utilizar los dispositivos de Capa 3 en la capa
de distribución, cada router funciona como gateway para una cantidad limitada
de usuarios de la capa de acceso.
Implementación
de bloques de switches:
Los routers o switches se implementan en
pares. Esta configuración se denomina bloque de switch de departamento o
construcción. Cada bloque de switches funciona de manera independiente. Como
resultado, la falla de un único dispositivo no desactiva la red. Incluso la
falla de todo un bloque de switches no afecta a un número considerable de
usuarios finales.
Redundancia
en la capa de distribución:
Los dispositivos de la capa de distribución
tienen conexiones redundantes con los switches en la capa de acceso y con los
dispositivos en la capa núcleo. Si falla un dispositivo o un enlace, estas
conexiones proporcionan rutas alternativas.
Los switches no son capaces de aprender de
forma correcta los puertos; por tanto el trafico termina acumulándose en todo
el switch.
En una red estable, son poco frecuentes los
nuevos cálculos del STP. En una red inestable, es importante verificar los
switches para detectar cambios en la configuración y la estabilidad. Una de las
causas más comunes de los nuevos cálculos del STP en forma frecuente es la
falla en una fuente de energía o suministro eléctrico del switch. Una fuente de
energía defectuosa provoca el reinicio del dispositivo de manera imprevista.
FILTRADO
DEL TRÁFICO EN LA CAPA DE DISTRIBUCIÓN
Una ACL es una lista de condiciones que se
utilizan para probar el tráfico de la red que intenta viajar a través de la
interfaz del router. Las declaraciones de la ACL identifican qué paquetes
aceptar o denegar.
Filtrado
del tráfico de la red:
Para filtrar el tráfico de la red, el router
examina cada paquete y luego lo envía o lo descarta, según las condiciones
especificadas en la ACL. Existen diferentes tipos de ACL para distintos
propósitos. Las ACL estándar filtran el tráfico según la dirección de origen.
Las ACL extendidas pueden filtrar según varios criterios, entre ellos:
-Dirección
de origen
-Dirección
de destino
-Protocolos
-Números de
puerto o aplicaciones
-Si el
paquete es parte de un flujo TCP establecido
ACL
complejas:
Las ACL extendidas y estándar sirven de base
para otras clases de ACL más complejas. Con el software IOS de Cisco, se pueden
configurar tres funciones de ACL compleja: dinámica, reflexiva y basada en
tiempo.
ACL
dinámica: requiere que un usuario utilice Telnet para conectarse al router y
realizar la autenticación. Una vez autenticada, se permite el tráfico
proveniente del usuario.
ACL
reflexiva: permite el tráfico saliente y luego limita el tráfico entrante de
manera que se admitan solo las respuestas a solicitudes autorizadas.
ACL basada
en tiempo: permite y deniega determinado tráfico según la hora del día o el día
de la semana.
Ubicación
de las ACL:
El tráfico que viaja hacia una interfaz se
filtra mediante la ACL entrante. El tráfico que sale de una interfaz se filtra
mediante la lista de control de acceso saliente. El diseñador de red debe
decidir dónde ubicar las ACL dentro de la red para alcanzar los resultados
deseados.
Capa de
acceso: La capa de acceso representa el
perímetro de la red, por donde entra o sale el tráfico de la red del campus.
Tradicionalmente, la función principal de los switches de capa de acceso es
proporcionar acceso de red al usuario. Los switches de capa de acceso se
conectan a los switches de capa de distribución, que implementan tecnologías de
base de red como el routing, la calidad de servicio y la seguridad.
Para satisfacer las demandas de las
aplicaciones de red y de los usuarios finales, las plataformas de switching de
última generación ahora proporcionan servicios más convergentes, integrados e
inteligentes a diversos tipos de terminales en el perímetro de la red. La
incorporación de inteligencia en los switches de capa de acceso permite que las
aplicaciones funcionen de manera más eficaz y segura en la red.
La capa de acceso es una de las capas del
diseño jerárquico de una red. Es el nivel más básico de la red. Representa el
perímetro de la red. El tráfico de los usuarios se inicia en la capa de acceso.
Es por donde entra o sale el tráfico de los usuarios.
La capa de acceso proporciona conectividad a
los usuarios. Proporciona un punto de conexión a la red para los dispositivos
de los usuarios finales. Es la parte de la red que permite a los usuarios
obtener acceso a otros hosts, a archivos e impresoras compartidos.
La capa de acceso está formada por host y por
la primera línea de dispositivos de red. Cada host está conectado a un
dispositivo de red.
Funciones
de la capa de acceso:
Las funciones que proporciona la capa de
acceso en un diseño de red de tres capas son:
Switching
de capa 2
Alta
disponibilidad
Seguridad
del puerto
Clasificación
y marcación de QoS, y límites de confianza
Inspección
del protocolo de resolución de direcciones (ARP)
Listas de
control de acceso virtual (VACL)
Árbol de
expansión
Alimentación
por Ethernet y VLAN auxiliares para VoIP
La capa de acceso se crea, conectando
directamente cada host a un dispositivo de red mediante un cable punto a punto.
Cada cable se conecta a una NIC del host y a un puerto del dispositivo de red.
Dispositivos
de la capa de acceso:
Los hosts o dispositivos finales se conectan
a otros hosts a través de un dispositivo de red de capa de acceso, por lo
general un hub, un switch o un punto de acceso inalámbrico.
Hubs en la
capa de acceso:
Dispositivos
simples que no decodifican los mensajes enviados entre los hosts
No pueden
determinar qué host debe recibir un mensaje en particular
Sólo acepta
datos en un puerto, para después regenerarlos y enviarlos al resto de los
puertos
Funcionan
como repetidor extendiendo el alcance de una red cuando se produce deterioro de
los datos a causa de la distancia
Los hubs no se utilizan con tanta frecuencia
debido a que disminuyen el ancho de banda disponible, para los dispositivos
conectados a estos, al no segmentar el tráfico. Además, contribuyen a que haya
un tráfico constante e innecesario de datos entre los dispositivos conectados a
estos.
Switches en
la capa de acceso:
Filtran y
segmentan el tráfico de la red al enviar datos solo al dispositivo al que se
envían los datos
Proporcionan
un mayor ancho de banda dedicado a cada dispositivo de la red
Mantienen
una tabla de conmutación para determinar que host debe recibir el mensaje
Al enviar
tramas hacia el destino, los otros puertos no se ven afectados
Puntos de
acceso inalámbrico:
-Proporcionan
acceso a la red a dispositivos inalámbricos
-Utiliza
ondas de radio para comunicarse con los dispositivos y con otros puntos de
acceso inalámbrico
-Tiene un
rango de cobertura limitado
Varios
puntos de acceso proporcionan cobertura inalámbrica adecuada
-Proporciona
conectividad solo a la red
VLAN: Una
VLAN (Red de área local virtual o LAN virtual) es una red de área local que
agrupa un conjunto de equipos de manera lógica y no física.
Efectivamente, la comunicación entre los
diferentes equipos en una red de área local está regida por la arquitectura
física. Gracias a las redes virtuales (VLAN), es posible liberarse de las
limitaciones de la arquitectura física (limitaciones geográficas, limitaciones
de dirección, etc.), ya que se define una segmentación lógica basada en el
agrupamiento de equipos según determinados criterios (direcciones MAC, números
de puertos, protocolos, etc.).
En una red de área local (LAN), todas las
estaciones de trabajo conectadas a un mismo switch (hub), o a un grupo de
switches conectados entre sí, comparten el mismo dominio de difusión. Esto hace
que cualquier paquete de difusión enviado a la LAN es replicado en todos los
puertos del switch o grupo de switches. Este hecho hace que el rendimiento de
la red baje considerablemente debido al uso del ancho de banda para el envío de
los mensajes de difusión.
Es muy habitual que dentro de una misma LAN
(dominio de difusión) haya usuarios pertenecientes a distintos grupos de
trabajo. Normalmente los mensajes de difusión sólo incumben a los dispositivos
pertenecientes a un mismo grupo de trabajo. A cada usuario le llegan mensajes
de otros grupos de trabajo que no le incumben, y que usan un ancho de banda que
no puede ser aprovechado para enviar otros mensajes.
Como puede
verse en la siguiente figura, hay dos formas de solucionar estos problemas:
Utilización
de routers: El router es un dispositivo que aísla dominios de difusión, es
decir, los mensajes de difusión de una LAN no son propagados más allá del
router.
Implementación
de redes de área local virtual de (VLANs)
Una VLAN está formada por un grupo lógico de
estaciones, físicamente unidas a uno o más switches, y que se gestionan como
una subred. Cada estación sólo puede comunicarse con otras estaciones de su
grupo. Aunque una estación puede pertenecer a más de un grupo.
Las
principales ventajas que aporta una VLAN son:
-Mejora en
la velocidad de la red al optimizar la gestión de los puertos.
-Gestión
más eficaz del ancho de banda de la LAN.
-Aumento de
la seguridad de la red.
Tipos de
VLAN
Se han definido diversos tipos de VLAN, según
criterios de conmutación y el nivel en el que se lleve a cabo. Así, la VLAN de
nivel 1 (también denominada VLAN basada en puerto) define una red virtual según
los puertos de conexión del conmutador. La VLAN de nivel 2 (también denominada
VLAN basada en la dirección MAC) define una red virtual según las direcciones
MAC de las estaciones. Este tipo de VLAN es más flexible que la VLAN basada en
puerto, ya que la red es independiente de la ubicación de la estación.
Además de las anteriores, existe la VLAN de
nivel 3, que incluye diferentes tipos. La VLAN basada en la dirección de red
conecta subredes según la dirección IP de origen de los datagramas. Este tipo
de solución brinda gran flexibilidad, en la medida en que la configuración de
los conmutadores cambia automáticamente cuando se mueve una estación. En
contrapartida, puede haber una ligera disminución del rendimiento, ya que la
información contenida en los paquetes debe analizarse detenidamente. La VLAN
basada en protocolo permite crear una red virtual por tipo de protocolo(por
ejemplo, TCP/IP, IPX, AppleTalk, etc.). Por lo tanto, se pueden agrupar todos
los equipos que utilizan el mismo protocolo en la misma red.
Ventajas de
la VLAN:
La VLAN permite definir una nueva red por
encima de la red física y, por lo tanto, ofrece diversas ventajas: una mayor
flexibilidad en la administración y en los cambios de la red, ya que la
arquitectura puede cambiarse usando los parámetros de los conmutadores; un
aumento de la seguridad, puesto que la información se encapsula en un nivel
adicional y puede ser analizada; una disminución en la transmisión de tráfico
en la red.
No hay comentarios.:
Publicar un comentario