domingo, 25 de abril de 2010

EVOLUCION DE LA WEB

WEB 2.0

WEB 2.0

PLANETA WEB 2.0

Planeta Web 2.0

Inteligencia colectiva o medios Fast Food
El término Web 2.0 nació a mediados de 2004 y creció hasta ser portada de los principales semanarios mundiales en las navidades de 2006. Este fenómeno tecno-social se popularizó a partir de sus aplicaciones más representativas, Wikipedia, YouTube, Flickr, WordPress, Blogger, MySpace, Facebook, OhMyNews, y de la sobreoferta de cientos de herramientas intentando captar usuarios / generadores de contenidos.

AUTORES

CRISTOBAL COBO ROMANI



Doctor en Comunicación Audiovisual de la Universitat Autònoma de Barcelona. Profesor y Coordinador de Comunicación y Nuevas Tecnologías de FLACSO México. Editor de McGraw-Hill para el libro “Communication in a Changing World”. Coordinador del programa “From Information to Innovative Knowledge: Tools and Skills for Adaptive Leadership”, Universidad de Minnesota y FLACSO México.

HUGO PARDO KUKINSKI



Investigador y desarrollador de aplicaciones web institucionales y Mobile Web 2.0. Doctor en Comunicación Audiovisual de la Universitat Autònoma de Barcelona. Profesor Titular del Departament de Comunicació Digital de la Universitat de Vic y miembro del Grup de Recerca d’Interaccions Digitals (GRID). Visiting Professor en el Human-Computer Interaction Group de Stanford University (2007).

La versión en .PDF se encuentra ahora descargable en línea, además puedes encontrar la trayectoria de los autores e incluso la tesis doctoral en línea, artículos, entrevistas y videoconferencias de ambos.

SEGMENTACION

ETHERNET CONMUTADA



ETHERNET CONMUTADA
La topología de Ethernet descripta hasta ahora ha sido la de Ethernet compartida (cualquier mensaje transmitido es escuchado por todos los equipos conectados y el ancho de banda disponible es compartido por todos los equipos).

Durante muchos años se ha dado un desarrollo importante: la Ethernet conmutada.
La topología física sigue siendo la de una estrella pero está organizada alrededor de un conmutador. El conmutador usa mecanismos de filtrado y conmutación muy similares a los utilizados por las puertas de enlace donde se han utilizado estas técnicas por mucho tiempo.

Inspecciona las direcciones de origen y destino de los mensajes, genera una tabla que le permite saber qué equipo se conecta a qué puerto del conmutador (en general este proceso se hace por auto aprendizaje, es decir, de manera automática pero el administrador del conmutador puede realizar ajustes adicionales).

Al conocer el puerto receptor, el conmutador sólo transmitirá el mensaje al puerto adecuado mientras que los otros puertos permanecerán libres para otras transmisiones que pueden ser realizadas simultáneamente.
Como resultado, cada intercambio puede llevarse a cabo a una velocidad nominal (mayor división de ancho de banda), sin colisiones y con un aumento considerable en el ancho de banda de la red (también a una velocidad nominal).

Con respecto a saber si todos los puertos de un conmutador pueden comunicarse al mismo sin perder los mensajes, eso es algo que depende de la calidad del conmutador (non blocking switch).

Dado que los conmutadores posibilitan evitar colisiones y que las tecnologías 10/100/1000 base T(X) cuentan con circuitos separados para la transmisión y la recepción (un par trenzado por dirección de transmisión), la mayoría de los conmutadores modernos permiten desactivar la detección y cambiar a modo full dúplex (bidireccional) en los puertos. De esta forma, los equipos pueden transmitir y recibir al mismo tiempo, lo que también contribuye al rendimiento de la red.
El modo full dúplex es interesante, en especial, para los servidores que poseen muchos clientes.

Los conmutadores Ethernet modernos también detectan la velocidad de transmisión que cada equipo utiliza (autosensing) y si el equipo admite varias velocidades (10, 100 o 1000 megabits/seg.) comienza a negociar con él para seleccionar tanto una velocidad como el modo de transmisión: semi dúplex o full dúplex. Esto permite contar con un almacenamiento de equipos con distintos rendimientos (por ejemplo, un conjunto de equipos con varias configuraciones hardware).

Como el tráfico transmitido y recibido ya no se transmite a todos los puertos, se hace más difícil rastrear lo que está pasando. Esto contribuye a la seguridad general de la red, que es un tema de suma importancia en la actualidad.

Por último, el uso de conmutadores hace posible la construcción de redes geográficamente más grandes. En la Ethernet compartida, un mensaje debe poder esperar a cualquier otro equipo durante un período de tiempo específico (slot time) sin el cual el mecanismo de detección de colisiones (CSMA/CD) no funcione correctamente.
Esto ya no se aplica en los conmutadores Ethernet. La distancia ya no es limitada, excepto por los límites técnicos del medio utilizado (fibra óptica o par trenzado, la potencia de la señal transmitida y la sensibilidad del receptor, etcétera).

SEGMENTACION MEDIANTE SWITCHES Y ROUTERS



SEGMENTACION DE LA RED

Hay dos motivos fundamentales para dividir una LAN en segmentos. El primer motivo es aislar el tráfico entre fragmentos, y obtener un ancho de banda mayor por usuario. Si la LAN no se divide en segmentos, las LAN cuyo tamaño sea mayor que un grupo de trabajo pequeño se congestionarían rápidamente con tráfico y saturación y virtualmente no ofrecerían ningún ancho de banda. La adición de dispositivos como, por ejemplo, puentes, switches y routers dividen la LAN en partes mas pequeñas, mas eficaces y fáciles de administrar.

Al dividir redes de gran tamaño en unidades autónomas, los puentes y los switches ofrecen varias ventajas. Un puente o switch reduce el tráfico de los dispositivos en todos los segmentos conectados ya que sólo se envía un determinado porcentaje de tráfico. Ambos dispositivos actúan como un cortafuegos ante algunos de red potencialmente perjudiciales. También aceptan la comunicación entre una cantidad de dispositivos mayor que la que se soportaría en cualquier LAN única conectada al puente. Los puentes y los switches amplían la longitud efectiva de una LAN, permitiendo la conexión de equipos distantes que anteriormente no estaban permitidas.

Aunque los puentes y los switches comparten los atributos más importantes, todavía existen varias diferencias entre ellos. Los switches son significativamente más veloces porque realizan la conmutación por hardware, mientras que los puentes lo hacen por software y pueden interconectar las LAN de distintos anchos de banda. Una LAN Ethernet de 10 Mbps y una LAN Ethernet de 100 Mbps se pueden conectar mediante un switch. Los switches pueden soportar densidades de puerto más altas que los puentes. Por último, los switches reducen las saturación y aumentan el ancho de banda en los segmentos de red ya que suministran un ancho de banda dedicado para cada segmento de red.

La segmentación por routers brinda todas estas ventajas e incluso otras adicionales. Cada interfaz (conexión) del router se conecta a una red distinta, de modo que al insertar el router en una LAN se crean redes mas pequeñas. Esto es así porque los routers no envían los broadcasts a menos que sean programados para hacerlo. Sin embargo, el router puede ejecutar las funciones de puenteo y transmisión de información. El router puede ejecutar la selección de mejor ruta y puede utilizarse para conectar distintos medios de red (una zona con fibra óptica y otra con UTP) y distintas tecnologías de LAN simultáneamente. El router, en la topología del ejemplo conecta las tecnologías de LAN Ethernet, Token Ring y FDDI, dividiendo la LAN en segmentos, pero hace muchas cosas más. Los routers pueden conectar las LAN que ejecutan distintos protocolos (IP vs. IPX vs. AppleTalk) y pueden tener conexiones con las WAN.

Nota Broadcast (o en castellano "difusión" o "multidifusión") , se producen cuando una fuente envía datos a todos los dispositivos de una red

La segmentación aísla en tráfico entre los tramos y así proporciona mayor ancho de banda para los usuarios.

INTEFAZ DE DATOS DISTRIBUIDA POR FIBRAS(FDDI), ETHERNET E IEEE 802.3 Y CSMA/CD, LAS COLISIONES Y SEGMENTACION

Tecnología LAN FDDI


La tecnología LAN FDDI (siglas en inglés que se traducen como interfaz de datos distribuida por fibra) es una tecnología de acceso a redes a través líneas de fibra óptica. De hecho, son dos anillos: el anillo "primario" y el anillo "secundario", que permite capturar los errores del primero. La FDDI es una red en anillo que posee detección y corrección de errores (de ahí, la importancia del segundo anillo).

El token circula entre los equipos a velocidades muy altas. Si no llega a un equipo después de un determinado periodo de tiempo, el equipo considera que se ha producido un error en la red.

La topología de la FDDI se parece bastante a la de una red en anillo con una pequeña diferencia: un equipo que forma parte de una red FDDI también puede conectarse al hub de una MAU desde una segunda red. En este caso, obtendremos un sistema biconectado.


Introducción a Ethernet

Ethernet (también conocido como estándar IEEE 802.3) es un estándar de transmisión de datos para redes de área local que se basa en el siguiente principio:

Todos los equipos en una red Ethernet están conectados a la misma línea de comunicación compuesta por cables cilíndricos.Se distinguen diferentes variantes de tecnología Ethernet según el tipo y el diámetro de los cables utilizados:

10Base2: el cable que se usa es un cable coaxial delgado, llamado thin Ethernet.
10Base5: el cable que se usa es un cable coaxial grueso, llamado thick Ethernet.
10Base-T: se utilizan dos cables trenzados (la T significa twisted pair) y alcanza una velocidad de 10 Mbps.
100Base-FX: permite alcanzar una velocidad de 100 Mbps al usar una fibra óptica multimodo (la F es por Fiber).
100Base-TX: es similar al 10Base-T pero con una velocidad 10 veces mayor (100 Mbps).
1000Base-T: utiliza dos pares de cables trenzados de categoría 5 y permite una velocidad de 1 gigabite por segundo.
1000Base-SX: se basa en fibra óptica multimodo y utiliza una longitud de onda corta (la S es por short) de 850 nanómetros (770 a 860 nm).
1000Base-LX: se basa en fibra óptica multimodo y utiliza una longitud de onda larga (la L es por long) de 1350 nanómetros (1270 a 1355 nm).



CSMA/ CD

Las redes basadas en el estándar IEEE 802.3 son las más usadas. Consiste en un Bus donde se conectan las distintas estaciones, donde se usa un protocolo MAC llamado CSMA-CD (Carrier Sense Multiple Access with Collision Detection),

El protocolo CSMA-CD funciona de la siguiente manera: un nodo que desea transmitir espera a que el canal esté aislado, una vez que se encuentra en este estado empieza la transmisión. Si otro nodo empezara también a transmitir en este instante se produciría colisión, por lo tanto se detiene la transmisión y se retransmite tras un retraso aleatorio.

Las estaciones en una LAN CSMA/CD pueden acceder a la red en cualquier momento y, antes de enviar los datos, las estaciones CSMA/CD "escuchan" la red para ver si ya es operativa. Si lo está, la estación que desea transmitir espera. Si la red no está en uso, la estación transmite. Se produce una colisión cuando dos estaciones que escuchan el tráfico en la red no "oyen" nada y transmiten simultáneamente. En este caso, ambas transmisiones quedan desbaratadas y las estaciones deben transmitir de nuevo en otro momento. Los algoritmos Backoff determinan cuando deben retransmitir las estaciones que han colisionado. Las estaciones CSMA/CD pueden detectar colisiones y determinar cuando retransmitir.



CSMA/CA


CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance) o Distributed Coordination Function (DCF). CSMA/CA intenta evitar colisiones utilizando un paquete explícito de reconocimiento (ACK), en donde un paquete ACK es enviado por la estación receptora confirmando que el paquete de datos llegó intacto. CSMA/CA trabaja de la siguiente manera: una estación que quiere transmitir sensa el aire, y si no se detecta actividad, la estación espera un tiempo adicional, seleccionado aleatoriamente y entonces transmite si el medio continúa libre.



Si el paquete es recibido intacto, la estación receptora envía un frame ACK una vez que el proceso de recepción termina. Si el frame ACK no es detectado por la estación transmisora, se asume que hubo una colisión y el paquete es transmitido de nuevo después de esperar otra cantidad de tiempo aleatoria. CSMA/CA además provee un camino para compartir el acceso sobre el aire. Este mecanismo explícito de ACK también maneja de manera efectiva la interferencia y otros problemas relacionados con radio.


SEGMENTACION
(en inglés pipelining, literalmente tuberia o cañeria) es un método por el cual se consigue aumentar el rendimiento de algunos sistemas electrónicos digitales. Es aplicado, sobre todo, en microprocesadores. El nombre viene de que para impulsar el gas en un oleoducto a la máxima velocidad es necesario dividir el oleoducto en tramos y colocar una bomba que dé un nuevo impulse al gas. El símil con la programación existe en que los cálculos deben ser registrados o sincronizados con el reloj cada cierto tiempo para que la ruta crítica (tramo con más carga o retardo computacional entre dos registros de reloj) se reduzca.

La ruta crítica es en realidad la frecuencia máxima de trabajo alcanzada por el conjunto. A mayor ruta crítica (tiempo o retraso entre registros) menor es la frecuencia máxima de trabajo y a menor ruta crítica mayor frecuencia de trabajo. La una es la inversa de la otra. Repartir o segmentar equitativamente el cálculo hace que esa frecuencia sea la óptima a costa de más área para el almacenamiento o registro de los datos intervinientes y de un retraso o latencia (en ciclos de reloj/tiempo) en la salida del resultado equivalente al número de segmentaciones o registros realizados. La ventaja primordial de este sistema es que, tal y como se muestra en la imagen, una vez el pipe está lleno, es decir, después de una latencia de cuatro en la imagen, los resultados de cada comando vienen uno tras otro cada flanco de reloj y sin latencia extra por estar encadenados dentro del mismo pipe. Todo esto habiendo maximizado la frecuencia máxima de trabajo.


Detalle de la segmentación de instrucciones.El alto rendimiento y la velocidad elevada de los modernos procesadores, se debe, principalmente a la conjunción de tres técnicas:

Arquitectura Harvard (arquitectura que propicia el paralelismo).
Procesador tipo RISC.
La propia segmentación

La segmentación consiste en descomponer la ejecución de cada instrucción en varias etapas para poder empezar a procesar una instrucción diferente en cada una de ellas y trabajar con varias a la vez.

En el caso del procesador DLX podemos encontrar las siguientes etapas en una instrucción:

IF: búsqueda
ID: decodificación
EX: ejecución de unidad aritmético lógica
MEM: memoria
WB: escritura
Cada una de estas etapas de la instrucción usa en exclusiva un hardware determinado del procesador, de tal forma que la ejecución de cada una de las etapas en principio no interfiere en la ejecución del resto.

En el caso de que el procesador no pudiese ejecutar las instrucciones en etapas segmentadas, la ejecución de la siguiente instrucción sólo se podría llevar a cabo tras la finalización de la primera. En cambio en un procesador segmentado, salvo excepciones de dependencias de datos o uso de unidades funcionales, la siguiente instrucción podría iniciar su ejecución tras acabar la primera etapa de la instrucción actual.

Otro ejemplo de lo anterior, en el caso del PIC, consiste en que el procesador realice al mismo tiempo la ejecución de una instrucción y la búsqueda del código de la siguiente.

CONTROL DE ACCESO AL MEDIO(MAC) EN IEEE 802.5

...::: Métodos de control y acceso al medio :::...

Al ser la red local un medio compartido, se hace necesario establecer las reglas que definen cómo los distintos usuarios tienen acceso a ella, para evitar conflictos y asegurar que cada uno tenga iguales oportunidades de acceso. Este conjunto de reglas es el denominado método de acceso al medio, que también se conoce como protocolo de arbitraje.

Los métodos de acceso al medio más utilizados son CSMA/CD y Paso de Testigo. CSMA/CD (Carrier Sense Múltiple Access/Collision Detection o Acceso múltiple con escucha de portadora y detección de colisión), es el protocolo de acceso al medio que utilizan las redes Ethernet (las más frecuentes en el mundo empresarial, que cubren un 80 % del mercado y que disponen de una topología lógica de bus). De esta manera, aunque la red puede estar físicamente dispuesta en bus o en estrella, su configuración a nivel funcional es la de un medio físico compartido por todas las terminales. Su funcionamiento es simple, antes de trasmitir un ordenador, este "escucha" el medio de transmisión que comparten todas las terminales conectadas para comprobar si existe una comunicación. Esta precaución se toma para que la transmisión que se realiza en ese momento no se interfiera por una nueva. En el caso de no detectar ninguna comunicación, se trasmite y por el contrario, esperará un tiempo aleatorio antes de comenzar de nuevo el proceso. En el caso de que dos ordenadores transmitan al mismo tiempo se produce una colisión, es decir, las señales se interfieren mutuamente. Ellas entonces quedan inservibles para su correcta recepción por sus respectivos destinatarios. Al escuchar una señal ininteligible, las terminales implicadas en la colisión cortan la transmisión que se realiza para a continuación transmitir una secuencia especial de bits, llamada señal de atasco o de interferencia, cuya misión es garantizar que la colisión dure lo suficiente (tiempo de atascamiento) para que la detecten el resto de las terminales de la red. Esta señal tiene más de 32 bits, pero menos de 48 con el objeto de que las computadoras conectadas a la red puedan interpretar que es un fragmento resultante de una colisión. Las estaciones descartarán cualquier trama que contenga menos de 64 octetos (bytes).

La técnica CSMA/CD no es adecuada para soportar aplicaciones de procesos en tiempo real (control de procesos industriales, transmisión de voz y vídeo, etc.).

Paso de testigo (Token Passing)

Este método de acceso se utiliza en diferentes redes que disponen de un anillo lógico; Token Ring, Token Bus y FDDI. Al contrario del método anterior, este se comporta de manera determinista, es decir, una terminal de la red puede transmitir en un intervalo de tiempo establecido.

El método de paso de testigo se vale de una trama especial o testigo (token), que monitorea cada computadora, para dar a estos permiso o no de transmisión. Las computadoras conectadas al anillo lógico, no pueden transmitir los datos hasta que no obtienen el permiso para hacerlo.

Este sistema evita la colisión, pues limita el derecho de transmitir a una máquina. Esa máquina se dice que tiene el Token. La circulación del Token de una máquina a la siguiente se produce a intervalos fijos y en forma de anillo lógico. En efecto, si bien IEEE 802.5 emplea un anillo físico, IEEE 802.4 especifica un Bus y ARCnet usa una configuración física en estrella.

Comparación entre CSMA/CD y Token Passing

Ambos tipos de protocolos presentan un uso generalizado. La ventaja del primero es que ofrece un mayor rendimiento, en especial cuando existen pocas colisiones. Esto ocurre si la mayoría de las transmisiones se originan en la misma terminal o si hay relativamente poco tráfico en la red. Una ventaja del segundo es que puede asegurarse que, con independencia del tráfico en la red, una terminal transmitirá antes de concluir un tiempo predeterminado. Esto tiene dos efectos positivos: uno, que el rendimiento de la red no disminuye significativamente al aumentar el tráfico y el otro que, asegura la llegada del mensaje a su destino antes de que pase cierto tiempo, como se requiere en muchas aplicaciones industriales. CSMA/CD resulta muy adecuado para aplicaciones interactivas con tráfico muy dispar, como son las aplicaciones normales de procesamiento de textos, financieras, etc; mientras que Token Passing es el método de acceso adecuado para las empresas con aplicaciones que exigen un tráfico elevado y uniforme en la red (multimedia, CAD, autoedición, etc.), se prefiere el CSMA/CD para oficinas. El Token Passing es el favorito para las fábricas e instituciones que manejan grandes cúmulo de información.

IEEE 802.5:

Define redes con anillo lógico en un anillo físico (también se puede configurar el anillo lógico sobre una topología física de estrella) y con protocolo MAC de paso de testigo (Token Ring). La norma prevé distintos niveles de prioridad (codificados mediante unos bits incluidos en el testigo). Las velocidades de transmisión normalizadas son de 1,4, 16, 20 y 40 Mbit/s (la más común es de 16 Mbit/s), existen diferentes tipos de cableado: UTP, STP y cable coaxial.

FUNDAMENTOS DE REDES IEEE 802

sábado, 24 de abril de 2010

FUNDAMENTOS DE REDES. IEEE 802

IEEE 802
Es un estudio de estándares perteneciente al Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), que actúa sobre Redes de Ordenadores, concretamente y según su propia definición sobre redes de área local (RAL, en inglés LAN) y redes de área metropolitana (MAN en inglés). También se usa el nombre IEEE 802 para referirse a los estándares que proponen, y algunos de los cuales son muy conocidos: Ethernet (IEEE 802.3), o Wi-Fi (IEEE 802.11), incluso está intentando estandarizar Bluetooth en el 802.15.

Se centra en definir los niveles más bajos (según el modelo de referencia OSI o sobre cualquier otro modelo), concretamente subdivide el segundo nivel, el de enlace, en dos subniveles, el de enlace lógico, recogido en 802.2, y el de acceso al medio. El resto de los estándares recogen tanto el nivel físico, como el subnivel de acceso al medio.

IEEE 802 (ORIGEN)

En febrero de 1980 se formó en el IEEE un comité de redes locales con la intención de estandarizar un sistema de 1 o 2 Mbps, que básicamente era Ethernet (el de la época). Le tocó el número 802. Decidieron estandarizar el nivel físico, el de enlace y superiores. Dividieron el nivel de enlace en dos subniveles: el de enlace lógico, encargado de la lógica de re-envíos, control de flujo y comprobación de errores, y el subnivel de acceso al medio, encargado de arbitrar los conflictos de acceso simultáneo a la red por parte de las estaciones.

Para final de año ya se había ampliado el estándar para incluir el Token Ring (Red en anillo con paso de testigo) de IBM y un año después, y por presiones de grupos industriales, se incluyó Token Bus (Red en bus con paso de testigo), que incluía opciones de tiempo real y redundancia, y que se suponía idóneo para ambientes de fábrica.

Cada uno de estos tres "estándares" tenía un nivel físico diferente, un subnivel de acceso al medio distinto pero con algún rasgo común (espacio de direcciones y comprobación de errores), y un nivel de enlace lógico único para todos ellos.

Después se fueron ampliando los campos de trabajo, se incluyeron redes de área metropolitana (alguna decena de kilómetros), personal (unos pocos metros) y regional (algún centenar de kilómetros), se incluyeron redes inalámbricas (WLAN), métodos de seguridad, comodidad, etc.