![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiBwm73bBHMW_tcPYK5LsZMAzauv_rxoqpBa_uut4FmMpTF_sFh7qShzkRa0xX_loZKrMgn6KhNAVw_AmiWuAJaNS_8klzl8ZzkDuvJW22Q5Gh8nJjpxc2FAfFlUueoynnQfB6UVKi4KXYk/s400/adelapost.bmp)
HOLA. MI NOMBRE ES ADELA CASTILLO CARREON. ACTUALMENTE ESTUDIO EN UNAED TULA, SEGUNDO SEMESTRE. VIVO EN TULA, TAMAULIPAS. ME GUSTA DIBUJAR, LA NATURALEZA, CAMINAR, MANUALIDADES...
viernes, 3 de diciembre de 2010
lunes, 26 de abril de 2010
domingo, 25 de abril de 2010
PLANETA WEB 2.0
Planeta Web 2.0
Inteligencia colectiva o medios Fast Food
El término Web 2.0 nació a mediados de 2004 y creció hasta ser portada de los principales semanarios mundiales en las navidades de 2006. Este fenómeno tecno-social se popularizó a partir de sus aplicaciones más representativas, Wikipedia, YouTube, Flickr, WordPress, Blogger, MySpace, Facebook, OhMyNews, y de la sobreoferta de cientos de herramientas intentando captar usuarios / generadores de contenidos.
AUTORES
CRISTOBAL COBO ROMANI
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjJl2z5sWDVMqcEugWMi-KcnGWKZG60tWKYcC9lIoAB3JtfR2buLEAn2IyZgsaCocAYialipUEg5Tq0e8PtlLMYnDTn5xSohTsnh9CIU9PM2CHfw-0169LddOelAsJWy25m18KWEDUm-saC/s320/CRISTOBAL+COBO+ROMANI.bmp)
Doctor en Comunicación Audiovisual de la Universitat Autònoma de Barcelona. Profesor y Coordinador de Comunicación y Nuevas Tecnologías de FLACSO México. Editor de McGraw-Hill para el libro “Communication in a Changing World”. Coordinador del programa “From Information to Innovative Knowledge: Tools and Skills for Adaptive Leadership”, Universidad de Minnesota y FLACSO México.
HUGO PARDO KUKINSKI
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjhDrQsyCxLtt-0usHX7GfwWt3oEmp9NS_axRC6kHZ_MPlySqjvizSb3FuAfqfpdL3MX5lOePsGGfnZgaIxMcLO31VvyJc7ndoM4SgWS8gyDUWgGPdwZoo5xVUo1xTaw-4x0sm6pDMix5Qu/s320/HUGO+PARDO+KUKINSKI.bmp)
Investigador y desarrollador de aplicaciones web institucionales y Mobile Web 2.0. Doctor en Comunicación Audiovisual de la Universitat Autònoma de Barcelona. Profesor Titular del Departament de Comunicació Digital de la Universitat de Vic y miembro del Grup de Recerca d’Interaccions Digitals (GRID). Visiting Professor en el Human-Computer Interaction Group de Stanford University (2007).
La versión en .PDF se encuentra ahora descargable en línea, además puedes encontrar la trayectoria de los autores e incluso la tesis doctoral en línea, artículos, entrevistas y videoconferencias de ambos.
Inteligencia colectiva o medios Fast Food
El término Web 2.0 nació a mediados de 2004 y creció hasta ser portada de los principales semanarios mundiales en las navidades de 2006. Este fenómeno tecno-social se popularizó a partir de sus aplicaciones más representativas, Wikipedia, YouTube, Flickr, WordPress, Blogger, MySpace, Facebook, OhMyNews, y de la sobreoferta de cientos de herramientas intentando captar usuarios / generadores de contenidos.
AUTORES
CRISTOBAL COBO ROMANI
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjJl2z5sWDVMqcEugWMi-KcnGWKZG60tWKYcC9lIoAB3JtfR2buLEAn2IyZgsaCocAYialipUEg5Tq0e8PtlLMYnDTn5xSohTsnh9CIU9PM2CHfw-0169LddOelAsJWy25m18KWEDUm-saC/s320/CRISTOBAL+COBO+ROMANI.bmp)
Doctor en Comunicación Audiovisual de la Universitat Autònoma de Barcelona. Profesor y Coordinador de Comunicación y Nuevas Tecnologías de FLACSO México. Editor de McGraw-Hill para el libro “Communication in a Changing World”. Coordinador del programa “From Information to Innovative Knowledge: Tools and Skills for Adaptive Leadership”, Universidad de Minnesota y FLACSO México.
HUGO PARDO KUKINSKI
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjhDrQsyCxLtt-0usHX7GfwWt3oEmp9NS_axRC6kHZ_MPlySqjvizSb3FuAfqfpdL3MX5lOePsGGfnZgaIxMcLO31VvyJc7ndoM4SgWS8gyDUWgGPdwZoo5xVUo1xTaw-4x0sm6pDMix5Qu/s320/HUGO+PARDO+KUKINSKI.bmp)
Investigador y desarrollador de aplicaciones web institucionales y Mobile Web 2.0. Doctor en Comunicación Audiovisual de la Universitat Autònoma de Barcelona. Profesor Titular del Departament de Comunicació Digital de la Universitat de Vic y miembro del Grup de Recerca d’Interaccions Digitals (GRID). Visiting Professor en el Human-Computer Interaction Group de Stanford University (2007).
La versión en .PDF se encuentra ahora descargable en línea, además puedes encontrar la trayectoria de los autores e incluso la tesis doctoral en línea, artículos, entrevistas y videoconferencias de ambos.
ETHERNET CONMUTADA
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhXfh6fRtRyFHT3ZrhHo3o49qFVbru-fm8vvs8KEXJb8Ro119tO3_wy4eVsjP3YC-z-E7a1VGH0PPbqtvnhSCNsFkM2KSAgOclvdn-0nzcJFyHZzdY2v-oYIvr1hkYx54UbNLfqDij_A5zm/s320/ETHERNET+CONMUTADA+1.jpg)
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiwhkIAuv3FloYBK8Vt0yFG3r3Q752d5zlC_2-6f0UVW33tdSnO5rkHfWFVB7M-btstlBqItTpwYDQxZYZBCqSqQhRCYlkq-xtwqwfKywzAqgvm_zZ_KiwGpV4RPyNczS-0PIDbRYdKi8mY/s320/ETHERNET+CONMUTADA.jpg)
ETHERNET CONMUTADA
La topología de Ethernet descripta hasta ahora ha sido la de Ethernet compartida (cualquier mensaje transmitido es escuchado por todos los equipos conectados y el ancho de banda disponible es compartido por todos los equipos).
Durante muchos años se ha dado un desarrollo importante: la Ethernet conmutada.
La topología física sigue siendo la de una estrella pero está organizada alrededor de un conmutador. El conmutador usa mecanismos de filtrado y conmutación muy similares a los utilizados por las puertas de enlace donde se han utilizado estas técnicas por mucho tiempo.
Inspecciona las direcciones de origen y destino de los mensajes, genera una tabla que le permite saber qué equipo se conecta a qué puerto del conmutador (en general este proceso se hace por auto aprendizaje, es decir, de manera automática pero el administrador del conmutador puede realizar ajustes adicionales).
Al conocer el puerto receptor, el conmutador sólo transmitirá el mensaje al puerto adecuado mientras que los otros puertos permanecerán libres para otras transmisiones que pueden ser realizadas simultáneamente.
Como resultado, cada intercambio puede llevarse a cabo a una velocidad nominal (mayor división de ancho de banda), sin colisiones y con un aumento considerable en el ancho de banda de la red (también a una velocidad nominal).
Con respecto a saber si todos los puertos de un conmutador pueden comunicarse al mismo sin perder los mensajes, eso es algo que depende de la calidad del conmutador (non blocking switch).
Dado que los conmutadores posibilitan evitar colisiones y que las tecnologías 10/100/1000 base T(X) cuentan con circuitos separados para la transmisión y la recepción (un par trenzado por dirección de transmisión), la mayoría de los conmutadores modernos permiten desactivar la detección y cambiar a modo full dúplex (bidireccional) en los puertos. De esta forma, los equipos pueden transmitir y recibir al mismo tiempo, lo que también contribuye al rendimiento de la red.
El modo full dúplex es interesante, en especial, para los servidores que poseen muchos clientes.
Los conmutadores Ethernet modernos también detectan la velocidad de transmisión que cada equipo utiliza (autosensing) y si el equipo admite varias velocidades (10, 100 o 1000 megabits/seg.) comienza a negociar con él para seleccionar tanto una velocidad como el modo de transmisión: semi dúplex o full dúplex. Esto permite contar con un almacenamiento de equipos con distintos rendimientos (por ejemplo, un conjunto de equipos con varias configuraciones hardware).
Como el tráfico transmitido y recibido ya no se transmite a todos los puertos, se hace más difícil rastrear lo que está pasando. Esto contribuye a la seguridad general de la red, que es un tema de suma importancia en la actualidad.
Por último, el uso de conmutadores hace posible la construcción de redes geográficamente más grandes. En la Ethernet compartida, un mensaje debe poder esperar a cualquier otro equipo durante un período de tiempo específico (slot time) sin el cual el mecanismo de detección de colisiones (CSMA/CD) no funcione correctamente.
Esto ya no se aplica en los conmutadores Ethernet. La distancia ya no es limitada, excepto por los límites técnicos del medio utilizado (fibra óptica o par trenzado, la potencia de la señal transmitida y la sensibilidad del receptor, etcétera).
SEGMENTACION MEDIANTE SWITCHES Y ROUTERS
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi7JyQiImZnTM1XzcuVo14K54H6tDCwbzg43oP3NsHf3NQyrwRbLQzk-Q97Hz8Ewt6G66CpvlF-5oQTlZ053BknzrYli_BVoIEmf_sqh3TPhTQUkJRA2__18ilT9OXT0TL-0MvYFv0LwR2Q/s320/SEGMENTACION+MEDIANTE+SWITCHES+Y+ROUTERS.gif)
SEGMENTACION DE LA RED
Hay dos motivos fundamentales para dividir una LAN en segmentos. El primer motivo es aislar el tráfico entre fragmentos, y obtener un ancho de banda mayor por usuario. Si la LAN no se divide en segmentos, las LAN cuyo tamaño sea mayor que un grupo de trabajo pequeño se congestionarían rápidamente con tráfico y saturación y virtualmente no ofrecerían ningún ancho de banda. La adición de dispositivos como, por ejemplo, puentes, switches y routers dividen la LAN en partes mas pequeñas, mas eficaces y fáciles de administrar.
Al dividir redes de gran tamaño en unidades autónomas, los puentes y los switches ofrecen varias ventajas. Un puente o switch reduce el tráfico de los dispositivos en todos los segmentos conectados ya que sólo se envía un determinado porcentaje de tráfico. Ambos dispositivos actúan como un cortafuegos ante algunos de red potencialmente perjudiciales. También aceptan la comunicación entre una cantidad de dispositivos mayor que la que se soportaría en cualquier LAN única conectada al puente. Los puentes y los switches amplían la longitud efectiva de una LAN, permitiendo la conexión de equipos distantes que anteriormente no estaban permitidas.
Aunque los puentes y los switches comparten los atributos más importantes, todavía existen varias diferencias entre ellos. Los switches son significativamente más veloces porque realizan la conmutación por hardware, mientras que los puentes lo hacen por software y pueden interconectar las LAN de distintos anchos de banda. Una LAN Ethernet de 10 Mbps y una LAN Ethernet de 100 Mbps se pueden conectar mediante un switch. Los switches pueden soportar densidades de puerto más altas que los puentes. Por último, los switches reducen las saturación y aumentan el ancho de banda en los segmentos de red ya que suministran un ancho de banda dedicado para cada segmento de red.
La segmentación por routers brinda todas estas ventajas e incluso otras adicionales. Cada interfaz (conexión) del router se conecta a una red distinta, de modo que al insertar el router en una LAN se crean redes mas pequeñas. Esto es así porque los routers no envían los broadcasts a menos que sean programados para hacerlo. Sin embargo, el router puede ejecutar las funciones de puenteo y transmisión de información. El router puede ejecutar la selección de mejor ruta y puede utilizarse para conectar distintos medios de red (una zona con fibra óptica y otra con UTP) y distintas tecnologías de LAN simultáneamente. El router, en la topología del ejemplo conecta las tecnologías de LAN Ethernet, Token Ring y FDDI, dividiendo la LAN en segmentos, pero hace muchas cosas más. Los routers pueden conectar las LAN que ejecutan distintos protocolos (IP vs. IPX vs. AppleTalk) y pueden tener conexiones con las WAN.
Nota Broadcast (o en castellano "difusión" o "multidifusión") , se producen cuando una fuente envía datos a todos los dispositivos de una red
La segmentación aísla en tráfico entre los tramos y así proporciona mayor ancho de banda para los usuarios.
INTEFAZ DE DATOS DISTRIBUIDA POR FIBRAS(FDDI), ETHERNET E IEEE 802.3 Y CSMA/CD, LAS COLISIONES Y SEGMENTACION
Tecnología LAN FDDI
La tecnología LAN FDDI (siglas en inglés que se traducen como interfaz de datos distribuida por fibra) es una tecnología de acceso a redes a través líneas de fibra óptica. De hecho, son dos anillos: el anillo "primario" y el anillo "secundario", que permite capturar los errores del primero. La FDDI es una red en anillo que posee detección y corrección de errores (de ahí, la importancia del segundo anillo).
El token circula entre los equipos a velocidades muy altas. Si no llega a un equipo después de un determinado periodo de tiempo, el equipo considera que se ha producido un error en la red.
La topología de la FDDI se parece bastante a la de una red en anillo con una pequeña diferencia: un equipo que forma parte de una red FDDI también puede conectarse al hub de una MAU desde una segunda red. En este caso, obtendremos un sistema biconectado.
Introducción a Ethernet
Ethernet (también conocido como estándar IEEE 802.3) es un estándar de transmisión de datos para redes de área local que se basa en el siguiente principio:
Todos los equipos en una red Ethernet están conectados a la misma línea de comunicación compuesta por cables cilíndricos.Se distinguen diferentes variantes de tecnología Ethernet según el tipo y el diámetro de los cables utilizados:
10Base2: el cable que se usa es un cable coaxial delgado, llamado thin Ethernet.
10Base5: el cable que se usa es un cable coaxial grueso, llamado thick Ethernet.
10Base-T: se utilizan dos cables trenzados (la T significa twisted pair) y alcanza una velocidad de 10 Mbps.
100Base-FX: permite alcanzar una velocidad de 100 Mbps al usar una fibra óptica multimodo (la F es por Fiber).
100Base-TX: es similar al 10Base-T pero con una velocidad 10 veces mayor (100 Mbps).
1000Base-T: utiliza dos pares de cables trenzados de categoría 5 y permite una velocidad de 1 gigabite por segundo.
1000Base-SX: se basa en fibra óptica multimodo y utiliza una longitud de onda corta (la S es por short) de 850 nanómetros (770 a 860 nm).
1000Base-LX: se basa en fibra óptica multimodo y utiliza una longitud de onda larga (la L es por long) de 1350 nanómetros (1270 a 1355 nm).
CSMA/ CD
Las redes basadas en el estándar IEEE 802.3 son las más usadas. Consiste en un Bus donde se conectan las distintas estaciones, donde se usa un protocolo MAC llamado CSMA-CD (Carrier Sense Multiple Access with Collision Detection),
El protocolo CSMA-CD funciona de la siguiente manera: un nodo que desea transmitir espera a que el canal esté aislado, una vez que se encuentra en este estado empieza la transmisión. Si otro nodo empezara también a transmitir en este instante se produciría colisión, por lo tanto se detiene la transmisión y se retransmite tras un retraso aleatorio.
Las estaciones en una LAN CSMA/CD pueden acceder a la red en cualquier momento y, antes de enviar los datos, las estaciones CSMA/CD "escuchan" la red para ver si ya es operativa. Si lo está, la estación que desea transmitir espera. Si la red no está en uso, la estación transmite. Se produce una colisión cuando dos estaciones que escuchan el tráfico en la red no "oyen" nada y transmiten simultáneamente. En este caso, ambas transmisiones quedan desbaratadas y las estaciones deben transmitir de nuevo en otro momento. Los algoritmos Backoff determinan cuando deben retransmitir las estaciones que han colisionado. Las estaciones CSMA/CD pueden detectar colisiones y determinar cuando retransmitir.
CSMA/CA
CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance) o Distributed Coordination Function (DCF). CSMA/CA intenta evitar colisiones utilizando un paquete explícito de reconocimiento (ACK), en donde un paquete ACK es enviado por la estación receptora confirmando que el paquete de datos llegó intacto. CSMA/CA trabaja de la siguiente manera: una estación que quiere transmitir sensa el aire, y si no se detecta actividad, la estación espera un tiempo adicional, seleccionado aleatoriamente y entonces transmite si el medio continúa libre.
Si el paquete es recibido intacto, la estación receptora envía un frame ACK una vez que el proceso de recepción termina. Si el frame ACK no es detectado por la estación transmisora, se asume que hubo una colisión y el paquete es transmitido de nuevo después de esperar otra cantidad de tiempo aleatoria. CSMA/CA además provee un camino para compartir el acceso sobre el aire. Este mecanismo explícito de ACK también maneja de manera efectiva la interferencia y otros problemas relacionados con radio.
SEGMENTACION
(en inglés pipelining, literalmente tuberia o cañeria) es un método por el cual se consigue aumentar el rendimiento de algunos sistemas electrónicos digitales. Es aplicado, sobre todo, en microprocesadores. El nombre viene de que para impulsar el gas en un oleoducto a la máxima velocidad es necesario dividir el oleoducto en tramos y colocar una bomba que dé un nuevo impulse al gas. El símil con la programación existe en que los cálculos deben ser registrados o sincronizados con el reloj cada cierto tiempo para que la ruta crítica (tramo con más carga o retardo computacional entre dos registros de reloj) se reduzca.
La ruta crítica es en realidad la frecuencia máxima de trabajo alcanzada por el conjunto. A mayor ruta crítica (tiempo o retraso entre registros) menor es la frecuencia máxima de trabajo y a menor ruta crítica mayor frecuencia de trabajo. La una es la inversa de la otra. Repartir o segmentar equitativamente el cálculo hace que esa frecuencia sea la óptima a costa de más área para el almacenamiento o registro de los datos intervinientes y de un retraso o latencia (en ciclos de reloj/tiempo) en la salida del resultado equivalente al número de segmentaciones o registros realizados. La ventaja primordial de este sistema es que, tal y como se muestra en la imagen, una vez el pipe está lleno, es decir, después de una latencia de cuatro en la imagen, los resultados de cada comando vienen uno tras otro cada flanco de reloj y sin latencia extra por estar encadenados dentro del mismo pipe. Todo esto habiendo maximizado la frecuencia máxima de trabajo.
Detalle de la segmentación de instrucciones.El alto rendimiento y la velocidad elevada de los modernos procesadores, se debe, principalmente a la conjunción de tres técnicas:
Arquitectura Harvard (arquitectura que propicia el paralelismo).
Procesador tipo RISC.
La propia segmentación
La segmentación consiste en descomponer la ejecución de cada instrucción en varias etapas para poder empezar a procesar una instrucción diferente en cada una de ellas y trabajar con varias a la vez.
En el caso del procesador DLX podemos encontrar las siguientes etapas en una instrucción:
IF: búsqueda
ID: decodificación
EX: ejecución de unidad aritmético lógica
MEM: memoria
WB: escritura
Cada una de estas etapas de la instrucción usa en exclusiva un hardware determinado del procesador, de tal forma que la ejecución de cada una de las etapas en principio no interfiere en la ejecución del resto.
En el caso de que el procesador no pudiese ejecutar las instrucciones en etapas segmentadas, la ejecución de la siguiente instrucción sólo se podría llevar a cabo tras la finalización de la primera. En cambio en un procesador segmentado, salvo excepciones de dependencias de datos o uso de unidades funcionales, la siguiente instrucción podría iniciar su ejecución tras acabar la primera etapa de la instrucción actual.
Otro ejemplo de lo anterior, en el caso del PIC, consiste en que el procesador realice al mismo tiempo la ejecución de una instrucción y la búsqueda del código de la siguiente.
La tecnología LAN FDDI (siglas en inglés que se traducen como interfaz de datos distribuida por fibra) es una tecnología de acceso a redes a través líneas de fibra óptica. De hecho, son dos anillos: el anillo "primario" y el anillo "secundario", que permite capturar los errores del primero. La FDDI es una red en anillo que posee detección y corrección de errores (de ahí, la importancia del segundo anillo).
El token circula entre los equipos a velocidades muy altas. Si no llega a un equipo después de un determinado periodo de tiempo, el equipo considera que se ha producido un error en la red.
La topología de la FDDI se parece bastante a la de una red en anillo con una pequeña diferencia: un equipo que forma parte de una red FDDI también puede conectarse al hub de una MAU desde una segunda red. En este caso, obtendremos un sistema biconectado.
Introducción a Ethernet
Ethernet (también conocido como estándar IEEE 802.3) es un estándar de transmisión de datos para redes de área local que se basa en el siguiente principio:
Todos los equipos en una red Ethernet están conectados a la misma línea de comunicación compuesta por cables cilíndricos.Se distinguen diferentes variantes de tecnología Ethernet según el tipo y el diámetro de los cables utilizados:
10Base2: el cable que se usa es un cable coaxial delgado, llamado thin Ethernet.
10Base5: el cable que se usa es un cable coaxial grueso, llamado thick Ethernet.
10Base-T: se utilizan dos cables trenzados (la T significa twisted pair) y alcanza una velocidad de 10 Mbps.
100Base-FX: permite alcanzar una velocidad de 100 Mbps al usar una fibra óptica multimodo (la F es por Fiber).
100Base-TX: es similar al 10Base-T pero con una velocidad 10 veces mayor (100 Mbps).
1000Base-T: utiliza dos pares de cables trenzados de categoría 5 y permite una velocidad de 1 gigabite por segundo.
1000Base-SX: se basa en fibra óptica multimodo y utiliza una longitud de onda corta (la S es por short) de 850 nanómetros (770 a 860 nm).
1000Base-LX: se basa en fibra óptica multimodo y utiliza una longitud de onda larga (la L es por long) de 1350 nanómetros (1270 a 1355 nm).
CSMA/ CD
Las redes basadas en el estándar IEEE 802.3 son las más usadas. Consiste en un Bus donde se conectan las distintas estaciones, donde se usa un protocolo MAC llamado CSMA-CD (Carrier Sense Multiple Access with Collision Detection),
El protocolo CSMA-CD funciona de la siguiente manera: un nodo que desea transmitir espera a que el canal esté aislado, una vez que se encuentra en este estado empieza la transmisión. Si otro nodo empezara también a transmitir en este instante se produciría colisión, por lo tanto se detiene la transmisión y se retransmite tras un retraso aleatorio.
Las estaciones en una LAN CSMA/CD pueden acceder a la red en cualquier momento y, antes de enviar los datos, las estaciones CSMA/CD "escuchan" la red para ver si ya es operativa. Si lo está, la estación que desea transmitir espera. Si la red no está en uso, la estación transmite. Se produce una colisión cuando dos estaciones que escuchan el tráfico en la red no "oyen" nada y transmiten simultáneamente. En este caso, ambas transmisiones quedan desbaratadas y las estaciones deben transmitir de nuevo en otro momento. Los algoritmos Backoff determinan cuando deben retransmitir las estaciones que han colisionado. Las estaciones CSMA/CD pueden detectar colisiones y determinar cuando retransmitir.
CSMA/CA
CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance) o Distributed Coordination Function (DCF). CSMA/CA intenta evitar colisiones utilizando un paquete explícito de reconocimiento (ACK), en donde un paquete ACK es enviado por la estación receptora confirmando que el paquete de datos llegó intacto. CSMA/CA trabaja de la siguiente manera: una estación que quiere transmitir sensa el aire, y si no se detecta actividad, la estación espera un tiempo adicional, seleccionado aleatoriamente y entonces transmite si el medio continúa libre.
Si el paquete es recibido intacto, la estación receptora envía un frame ACK una vez que el proceso de recepción termina. Si el frame ACK no es detectado por la estación transmisora, se asume que hubo una colisión y el paquete es transmitido de nuevo después de esperar otra cantidad de tiempo aleatoria. CSMA/CA además provee un camino para compartir el acceso sobre el aire. Este mecanismo explícito de ACK también maneja de manera efectiva la interferencia y otros problemas relacionados con radio.
SEGMENTACION
(en inglés pipelining, literalmente tuberia o cañeria) es un método por el cual se consigue aumentar el rendimiento de algunos sistemas electrónicos digitales. Es aplicado, sobre todo, en microprocesadores. El nombre viene de que para impulsar el gas en un oleoducto a la máxima velocidad es necesario dividir el oleoducto en tramos y colocar una bomba que dé un nuevo impulse al gas. El símil con la programación existe en que los cálculos deben ser registrados o sincronizados con el reloj cada cierto tiempo para que la ruta crítica (tramo con más carga o retardo computacional entre dos registros de reloj) se reduzca.
La ruta crítica es en realidad la frecuencia máxima de trabajo alcanzada por el conjunto. A mayor ruta crítica (tiempo o retraso entre registros) menor es la frecuencia máxima de trabajo y a menor ruta crítica mayor frecuencia de trabajo. La una es la inversa de la otra. Repartir o segmentar equitativamente el cálculo hace que esa frecuencia sea la óptima a costa de más área para el almacenamiento o registro de los datos intervinientes y de un retraso o latencia (en ciclos de reloj/tiempo) en la salida del resultado equivalente al número de segmentaciones o registros realizados. La ventaja primordial de este sistema es que, tal y como se muestra en la imagen, una vez el pipe está lleno, es decir, después de una latencia de cuatro en la imagen, los resultados de cada comando vienen uno tras otro cada flanco de reloj y sin latencia extra por estar encadenados dentro del mismo pipe. Todo esto habiendo maximizado la frecuencia máxima de trabajo.
Detalle de la segmentación de instrucciones.El alto rendimiento y la velocidad elevada de los modernos procesadores, se debe, principalmente a la conjunción de tres técnicas:
Arquitectura Harvard (arquitectura que propicia el paralelismo).
Procesador tipo RISC.
La propia segmentación
La segmentación consiste en descomponer la ejecución de cada instrucción en varias etapas para poder empezar a procesar una instrucción diferente en cada una de ellas y trabajar con varias a la vez.
En el caso del procesador DLX podemos encontrar las siguientes etapas en una instrucción:
IF: búsqueda
ID: decodificación
EX: ejecución de unidad aritmético lógica
MEM: memoria
WB: escritura
Cada una de estas etapas de la instrucción usa en exclusiva un hardware determinado del procesador, de tal forma que la ejecución de cada una de las etapas en principio no interfiere en la ejecución del resto.
En el caso de que el procesador no pudiese ejecutar las instrucciones en etapas segmentadas, la ejecución de la siguiente instrucción sólo se podría llevar a cabo tras la finalización de la primera. En cambio en un procesador segmentado, salvo excepciones de dependencias de datos o uso de unidades funcionales, la siguiente instrucción podría iniciar su ejecución tras acabar la primera etapa de la instrucción actual.
Otro ejemplo de lo anterior, en el caso del PIC, consiste en que el procesador realice al mismo tiempo la ejecución de una instrucción y la búsqueda del código de la siguiente.
CONTROL DE ACCESO AL MEDIO(MAC) EN IEEE 802.5
...::: Métodos de control y acceso al medio :::...
Al ser la red local un medio compartido, se hace necesario establecer las reglas que definen cómo los distintos usuarios tienen acceso a ella, para evitar conflictos y asegurar que cada uno tenga iguales oportunidades de acceso. Este conjunto de reglas es el denominado método de acceso al medio, que también se conoce como protocolo de arbitraje.
Los métodos de acceso al medio más utilizados son CSMA/CD y Paso de Testigo. CSMA/CD (Carrier Sense Múltiple Access/Collision Detection o Acceso múltiple con escucha de portadora y detección de colisión), es el protocolo de acceso al medio que utilizan las redes Ethernet (las más frecuentes en el mundo empresarial, que cubren un 80 % del mercado y que disponen de una topología lógica de bus). De esta manera, aunque la red puede estar físicamente dispuesta en bus o en estrella, su configuración a nivel funcional es la de un medio físico compartido por todas las terminales. Su funcionamiento es simple, antes de trasmitir un ordenador, este "escucha" el medio de transmisión que comparten todas las terminales conectadas para comprobar si existe una comunicación. Esta precaución se toma para que la transmisión que se realiza en ese momento no se interfiera por una nueva. En el caso de no detectar ninguna comunicación, se trasmite y por el contrario, esperará un tiempo aleatorio antes de comenzar de nuevo el proceso. En el caso de que dos ordenadores transmitan al mismo tiempo se produce una colisión, es decir, las señales se interfieren mutuamente. Ellas entonces quedan inservibles para su correcta recepción por sus respectivos destinatarios. Al escuchar una señal ininteligible, las terminales implicadas en la colisión cortan la transmisión que se realiza para a continuación transmitir una secuencia especial de bits, llamada señal de atasco o de interferencia, cuya misión es garantizar que la colisión dure lo suficiente (tiempo de atascamiento) para que la detecten el resto de las terminales de la red. Esta señal tiene más de 32 bits, pero menos de 48 con el objeto de que las computadoras conectadas a la red puedan interpretar que es un fragmento resultante de una colisión. Las estaciones descartarán cualquier trama que contenga menos de 64 octetos (bytes).
La técnica CSMA/CD no es adecuada para soportar aplicaciones de procesos en tiempo real (control de procesos industriales, transmisión de voz y vídeo, etc.).
Paso de testigo (Token Passing)
Este método de acceso se utiliza en diferentes redes que disponen de un anillo lógico; Token Ring, Token Bus y FDDI. Al contrario del método anterior, este se comporta de manera determinista, es decir, una terminal de la red puede transmitir en un intervalo de tiempo establecido.
El método de paso de testigo se vale de una trama especial o testigo (token), que monitorea cada computadora, para dar a estos permiso o no de transmisión. Las computadoras conectadas al anillo lógico, no pueden transmitir los datos hasta que no obtienen el permiso para hacerlo.
Este sistema evita la colisión, pues limita el derecho de transmitir a una máquina. Esa máquina se dice que tiene el Token. La circulación del Token de una máquina a la siguiente se produce a intervalos fijos y en forma de anillo lógico. En efecto, si bien IEEE 802.5 emplea un anillo físico, IEEE 802.4 especifica un Bus y ARCnet usa una configuración física en estrella.
Comparación entre CSMA/CD y Token Passing
Ambos tipos de protocolos presentan un uso generalizado. La ventaja del primero es que ofrece un mayor rendimiento, en especial cuando existen pocas colisiones. Esto ocurre si la mayoría de las transmisiones se originan en la misma terminal o si hay relativamente poco tráfico en la red. Una ventaja del segundo es que puede asegurarse que, con independencia del tráfico en la red, una terminal transmitirá antes de concluir un tiempo predeterminado. Esto tiene dos efectos positivos: uno, que el rendimiento de la red no disminuye significativamente al aumentar el tráfico y el otro que, asegura la llegada del mensaje a su destino antes de que pase cierto tiempo, como se requiere en muchas aplicaciones industriales. CSMA/CD resulta muy adecuado para aplicaciones interactivas con tráfico muy dispar, como son las aplicaciones normales de procesamiento de textos, financieras, etc; mientras que Token Passing es el método de acceso adecuado para las empresas con aplicaciones que exigen un tráfico elevado y uniforme en la red (multimedia, CAD, autoedición, etc.), se prefiere el CSMA/CD para oficinas. El Token Passing es el favorito para las fábricas e instituciones que manejan grandes cúmulo de información.
IEEE 802.5:
Define redes con anillo lógico en un anillo físico (también se puede configurar el anillo lógico sobre una topología física de estrella) y con protocolo MAC de paso de testigo (Token Ring). La norma prevé distintos niveles de prioridad (codificados mediante unos bits incluidos en el testigo). Las velocidades de transmisión normalizadas son de 1,4, 16, 20 y 40 Mbit/s (la más común es de 16 Mbit/s), existen diferentes tipos de cableado: UTP, STP y cable coaxial.
Al ser la red local un medio compartido, se hace necesario establecer las reglas que definen cómo los distintos usuarios tienen acceso a ella, para evitar conflictos y asegurar que cada uno tenga iguales oportunidades de acceso. Este conjunto de reglas es el denominado método de acceso al medio, que también se conoce como protocolo de arbitraje.
Los métodos de acceso al medio más utilizados son CSMA/CD y Paso de Testigo. CSMA/CD (Carrier Sense Múltiple Access/Collision Detection o Acceso múltiple con escucha de portadora y detección de colisión), es el protocolo de acceso al medio que utilizan las redes Ethernet (las más frecuentes en el mundo empresarial, que cubren un 80 % del mercado y que disponen de una topología lógica de bus). De esta manera, aunque la red puede estar físicamente dispuesta en bus o en estrella, su configuración a nivel funcional es la de un medio físico compartido por todas las terminales. Su funcionamiento es simple, antes de trasmitir un ordenador, este "escucha" el medio de transmisión que comparten todas las terminales conectadas para comprobar si existe una comunicación. Esta precaución se toma para que la transmisión que se realiza en ese momento no se interfiera por una nueva. En el caso de no detectar ninguna comunicación, se trasmite y por el contrario, esperará un tiempo aleatorio antes de comenzar de nuevo el proceso. En el caso de que dos ordenadores transmitan al mismo tiempo se produce una colisión, es decir, las señales se interfieren mutuamente. Ellas entonces quedan inservibles para su correcta recepción por sus respectivos destinatarios. Al escuchar una señal ininteligible, las terminales implicadas en la colisión cortan la transmisión que se realiza para a continuación transmitir una secuencia especial de bits, llamada señal de atasco o de interferencia, cuya misión es garantizar que la colisión dure lo suficiente (tiempo de atascamiento) para que la detecten el resto de las terminales de la red. Esta señal tiene más de 32 bits, pero menos de 48 con el objeto de que las computadoras conectadas a la red puedan interpretar que es un fragmento resultante de una colisión. Las estaciones descartarán cualquier trama que contenga menos de 64 octetos (bytes).
La técnica CSMA/CD no es adecuada para soportar aplicaciones de procesos en tiempo real (control de procesos industriales, transmisión de voz y vídeo, etc.).
Paso de testigo (Token Passing)
Este método de acceso se utiliza en diferentes redes que disponen de un anillo lógico; Token Ring, Token Bus y FDDI. Al contrario del método anterior, este se comporta de manera determinista, es decir, una terminal de la red puede transmitir en un intervalo de tiempo establecido.
El método de paso de testigo se vale de una trama especial o testigo (token), que monitorea cada computadora, para dar a estos permiso o no de transmisión. Las computadoras conectadas al anillo lógico, no pueden transmitir los datos hasta que no obtienen el permiso para hacerlo.
Este sistema evita la colisión, pues limita el derecho de transmitir a una máquina. Esa máquina se dice que tiene el Token. La circulación del Token de una máquina a la siguiente se produce a intervalos fijos y en forma de anillo lógico. En efecto, si bien IEEE 802.5 emplea un anillo físico, IEEE 802.4 especifica un Bus y ARCnet usa una configuración física en estrella.
Comparación entre CSMA/CD y Token Passing
Ambos tipos de protocolos presentan un uso generalizado. La ventaja del primero es que ofrece un mayor rendimiento, en especial cuando existen pocas colisiones. Esto ocurre si la mayoría de las transmisiones se originan en la misma terminal o si hay relativamente poco tráfico en la red. Una ventaja del segundo es que puede asegurarse que, con independencia del tráfico en la red, una terminal transmitirá antes de concluir un tiempo predeterminado. Esto tiene dos efectos positivos: uno, que el rendimiento de la red no disminuye significativamente al aumentar el tráfico y el otro que, asegura la llegada del mensaje a su destino antes de que pase cierto tiempo, como se requiere en muchas aplicaciones industriales. CSMA/CD resulta muy adecuado para aplicaciones interactivas con tráfico muy dispar, como son las aplicaciones normales de procesamiento de textos, financieras, etc; mientras que Token Passing es el método de acceso adecuado para las empresas con aplicaciones que exigen un tráfico elevado y uniforme en la red (multimedia, CAD, autoedición, etc.), se prefiere el CSMA/CD para oficinas. El Token Passing es el favorito para las fábricas e instituciones que manejan grandes cúmulo de información.
IEEE 802.5:
Define redes con anillo lógico en un anillo físico (también se puede configurar el anillo lógico sobre una topología física de estrella) y con protocolo MAC de paso de testigo (Token Ring). La norma prevé distintos niveles de prioridad (codificados mediante unos bits incluidos en el testigo). Las velocidades de transmisión normalizadas son de 1,4, 16, 20 y 40 Mbit/s (la más común es de 16 Mbit/s), existen diferentes tipos de cableado: UTP, STP y cable coaxial.
sábado, 24 de abril de 2010
FUNDAMENTOS DE REDES. IEEE 802
IEEE 802
Es un estudio de estándares perteneciente al Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), que actúa sobre Redes de Ordenadores, concretamente y según su propia definición sobre redes de área local (RAL, en inglés LAN) y redes de área metropolitana (MAN en inglés). También se usa el nombre IEEE 802 para referirse a los estándares que proponen, y algunos de los cuales son muy conocidos: Ethernet (IEEE 802.3), o Wi-Fi (IEEE 802.11), incluso está intentando estandarizar Bluetooth en el 802.15.
Se centra en definir los niveles más bajos (según el modelo de referencia OSI o sobre cualquier otro modelo), concretamente subdivide el segundo nivel, el de enlace, en dos subniveles, el de enlace lógico, recogido en 802.2, y el de acceso al medio. El resto de los estándares recogen tanto el nivel físico, como el subnivel de acceso al medio.
IEEE 802 (ORIGEN)
En febrero de 1980 se formó en el IEEE un comité de redes locales con la intención de estandarizar un sistema de 1 o 2 Mbps, que básicamente era Ethernet (el de la época). Le tocó el número 802. Decidieron estandarizar el nivel físico, el de enlace y superiores. Dividieron el nivel de enlace en dos subniveles: el de enlace lógico, encargado de la lógica de re-envíos, control de flujo y comprobación de errores, y el subnivel de acceso al medio, encargado de arbitrar los conflictos de acceso simultáneo a la red por parte de las estaciones.
Para final de año ya se había ampliado el estándar para incluir el Token Ring (Red en anillo con paso de testigo) de IBM y un año después, y por presiones de grupos industriales, se incluyó Token Bus (Red en bus con paso de testigo), que incluía opciones de tiempo real y redundancia, y que se suponía idóneo para ambientes de fábrica.
Cada uno de estos tres "estándares" tenía un nivel físico diferente, un subnivel de acceso al medio distinto pero con algún rasgo común (espacio de direcciones y comprobación de errores), y un nivel de enlace lógico único para todos ellos.
Después se fueron ampliando los campos de trabajo, se incluyeron redes de área metropolitana (alguna decena de kilómetros), personal (unos pocos metros) y regional (algún centenar de kilómetros), se incluyeron redes inalámbricas (WLAN), métodos de seguridad, comodidad, etc.
Es un estudio de estándares perteneciente al Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), que actúa sobre Redes de Ordenadores, concretamente y según su propia definición sobre redes de área local (RAL, en inglés LAN) y redes de área metropolitana (MAN en inglés). También se usa el nombre IEEE 802 para referirse a los estándares que proponen, y algunos de los cuales son muy conocidos: Ethernet (IEEE 802.3), o Wi-Fi (IEEE 802.11), incluso está intentando estandarizar Bluetooth en el 802.15.
Se centra en definir los niveles más bajos (según el modelo de referencia OSI o sobre cualquier otro modelo), concretamente subdivide el segundo nivel, el de enlace, en dos subniveles, el de enlace lógico, recogido en 802.2, y el de acceso al medio. El resto de los estándares recogen tanto el nivel físico, como el subnivel de acceso al medio.
IEEE 802 (ORIGEN)
En febrero de 1980 se formó en el IEEE un comité de redes locales con la intención de estandarizar un sistema de 1 o 2 Mbps, que básicamente era Ethernet (el de la época). Le tocó el número 802. Decidieron estandarizar el nivel físico, el de enlace y superiores. Dividieron el nivel de enlace en dos subniveles: el de enlace lógico, encargado de la lógica de re-envíos, control de flujo y comprobación de errores, y el subnivel de acceso al medio, encargado de arbitrar los conflictos de acceso simultáneo a la red por parte de las estaciones.
Para final de año ya se había ampliado el estándar para incluir el Token Ring (Red en anillo con paso de testigo) de IBM y un año después, y por presiones de grupos industriales, se incluyó Token Bus (Red en bus con paso de testigo), que incluía opciones de tiempo real y redundancia, y que se suponía idóneo para ambientes de fábrica.
Cada uno de estos tres "estándares" tenía un nivel físico diferente, un subnivel de acceso al medio distinto pero con algún rasgo común (espacio de direcciones y comprobación de errores), y un nivel de enlace lógico único para todos ellos.
Después se fueron ampliando los campos de trabajo, se incluyeron redes de área metropolitana (alguna decena de kilómetros), personal (unos pocos metros) y regional (algún centenar de kilómetros), se incluyeron redes inalámbricas (WLAN), métodos de seguridad, comodidad, etc.
lunes, 29 de marzo de 2010
jueves, 25 de marzo de 2010
jueves, 18 de marzo de 2010
DIRECCIONAMIENTO
Normalmente se utiliza la notación decimal-punto para representar direcciones IP. Ésta consiste en cuatro números decimales separados por puntos, cada uno de los cuales expresa el valor del correspondiente octeto de la dirección. Así, por ejemplo, 132.4.23.3 o 211.23.76.254 son direcciones válidas, mientras que 321.23.4.21 no lo es, pues el primer número está fuera del rango alcanzable con un octeto (0-255). En función del valor que tome el primer número de la dirección, podemos distinguir cinco tipos o clases de direcciones:
•Clase A: Son aquellas que tienen un 0 en el bit más significativo del primer octeto
(números menos de 127 en decimal). En estas direcciones, el primer octeto
es el identificador de red, y los tres siguientes identifican al equipo.
•Clase B: Son aquellas cuyos dos primeros bits más significativos son: 10 (primer número
entre 128 y 191). En ellas, los dos pimeros octetos son el identificador de red,
los dos siguientes el del equipo.
•Clase C: Los tres bits más significativos del primer octeto son: 110 (primer número entre 192
y 223). En ellas, los tres primeros octetos identifican a la red, y el último al equipo.
•Clase D: Los cuatro bits más significativos del primer octeto son: 1110 (primer número
entre 224 y 239). Son utilizadas para el direccionamiento punto a multipunto (multicast).
•Clase E: Los cuatro bits más significativos del primer octeto son: 1111 (primer número entre 240 y
255). Se encuentran reservados para usos futuros.
La clase de dirección a utilizar dependerá del número de equipos presentes en una red. Así, no podremos utilizar direcciones de clase C para una red que tenga 500 equipos, pues el identificador de equipo es de sólo un octeto. Cuando un equipo se encuentra conectado a múltiples redes (como ocurre con los encaminadores), deberá tener una IP por cada red que interconecte.
Existen algunas direcciones especiales que no pueden ser utilizadas por equipos, como son: • Direcciones de red: Para identificar una red en su conjunto, se usa una dirección IP con el identificador de equipo puesto a cero. Por ejemplo, direcciones como 122.0.0.0 o 193.23.121.0 son direcciones de red.
• Dirección de difusión local: Se utiliza para hacer llegar un paquete a todos los equipos conectados a la red, y consiste en la dirección con todos los bits de la parte de equipo puestos a 1. Por ejemplo, 122.255.255.255 o 193.23.121.255. • Dirección de difusión total: Utilizada para hacer llegar un paquete a todos los equipos de todas las redes. Consiste en todos los bits de la dirección puestos a 1 (255.255.255.255). Normalmente los encaminadores no la propagan, con lo cual equivale a la difusión local. • Dirección de bucle local: utilizada para indicar el propio equipo, es cualquiera en la red de clase A con identificador de equipo 127, es decir, 127.XXX.XXX.XXX. Generalmente se suele emplear 127.0.0.1 • Dirección desconocida: utilizada para indicar la entrada por defecto en la tabla de encaminamiento: todos los bits a cero (0.0.0.0).
•Clase A: Son aquellas que tienen un 0 en el bit más significativo del primer octeto
(números menos de 127 en decimal). En estas direcciones, el primer octeto
es el identificador de red, y los tres siguientes identifican al equipo.
•Clase B: Son aquellas cuyos dos primeros bits más significativos son: 10 (primer número
entre 128 y 191). En ellas, los dos pimeros octetos son el identificador de red,
los dos siguientes el del equipo.
•Clase C: Los tres bits más significativos del primer octeto son: 110 (primer número entre 192
y 223). En ellas, los tres primeros octetos identifican a la red, y el último al equipo.
•Clase D: Los cuatro bits más significativos del primer octeto son: 1110 (primer número
entre 224 y 239). Son utilizadas para el direccionamiento punto a multipunto (multicast).
•Clase E: Los cuatro bits más significativos del primer octeto son: 1111 (primer número entre 240 y
255). Se encuentran reservados para usos futuros.
La clase de dirección a utilizar dependerá del número de equipos presentes en una red. Así, no podremos utilizar direcciones de clase C para una red que tenga 500 equipos, pues el identificador de equipo es de sólo un octeto. Cuando un equipo se encuentra conectado a múltiples redes (como ocurre con los encaminadores), deberá tener una IP por cada red que interconecte.
Existen algunas direcciones especiales que no pueden ser utilizadas por equipos, como son: • Direcciones de red: Para identificar una red en su conjunto, se usa una dirección IP con el identificador de equipo puesto a cero. Por ejemplo, direcciones como 122.0.0.0 o 193.23.121.0 son direcciones de red.
• Dirección de difusión local: Se utiliza para hacer llegar un paquete a todos los equipos conectados a la red, y consiste en la dirección con todos los bits de la parte de equipo puestos a 1. Por ejemplo, 122.255.255.255 o 193.23.121.255. • Dirección de difusión total: Utilizada para hacer llegar un paquete a todos los equipos de todas las redes. Consiste en todos los bits de la dirección puestos a 1 (255.255.255.255). Normalmente los encaminadores no la propagan, con lo cual equivale a la difusión local. • Dirección de bucle local: utilizada para indicar el propio equipo, es cualquiera en la red de clase A con identificador de equipo 127, es decir, 127.XXX.XXX.XXX. Generalmente se suele emplear 127.0.0.1 • Dirección desconocida: utilizada para indicar la entrada por defecto en la tabla de encaminamiento: todos los bits a cero (0.0.0.0).
TRAMAS:Es una topologia gradual medida por los difrentes aspectos fisicos que lo conforman en este caso es un medio de comunicaion en el cual se basa gradualmente la comunicaoin de apoyo en la red
LLC
Control de enlace lógico LLC ("Logical Link Control") define la forma en que los datos son transferidos sobre el medio físico, proporcionando servicio a las capas superiores.
Es la más alta de las dos subcapas de enlace de datos definidas por el IEEE y la responsable del control de enlace lógico. La subcapa LLC maneja el control de errores, control del flujo, entramado y direccionamiento de la subcapa MAC. El protocolo LLC más generalizado es IEEE 802.2, que incluye variantes no orientado a conexión y orientadas a conexión.
En la subcapa LLC se contemplan dos aspectos bien diferenciados:
Los Los protocolos LLC: Para la comunicación entre entidades de la propia subcapa LLC, definen los procedimientos para el intercambio de tramas de información y de control entre cualquier par de puntos de acceso al servicio del nivel de enlace LSAP.
Las interfaces: con la subcapa inferior MAC y con la capa superior (de Red).
Interfaz LLC – MAC: Especifica los servicios que la subcapa de LLC requiere de la subcapa MAC, independientemente de la topología de la subred y del tipo de acceso al medio.
Interfaz LLC – Capa de Red Modelo OSI: Especifica los servicios que la Capa de Red Modelo OSI obtiene de la Capa de Enlace Modelo OSI, independientemente de su configuración.
MAC
En redes de ordenadores la dirección MAC (siglas en inglés de Media Access Control o control de acceso al medio) es un identificador de 48 bits (6 bloques hexadecimales) que corresponde de forma única a una ethernet de red. Se conoce también como la dirección física en cuanto identificar dispositivos de red. Es individual, cada dispositivo tiene su propia dirección MAC determinada y configurada por el IEEE (los últimos 24 bits) y el fabricante (los primeros 24 bits) utilizando el OUI. La mayoría de los protocolos que trabajan en la capa 2 del modelo OSI usan una de las tres numeraciones manejadas por el IEEE: MAC-48, EUI-48, y EUI-64 las cuales han sido diseñadas para ser identificadores globalmente únicos. No todos los protocolos de comunicación usan direcciones MAC, y no todos los protocolos requieren identificadores globalmente únicos.
Las direcciones MAC son únicas a nivel mundial, puesto que son escritas directamente, en forma binaria, en el hardware en su momento de fabricación. Debido a esto, las direcciones MAC son a veces llamadas "Direcciones Quemadas Dentro" (BIA, por las siglas de Burned-in Address).
Si nos fijamos en la definición como cada bloque hexadecimal son 8 dígitos binarios (bits), tendríamos:
6*8=48 bits únicos
En la mayoría de los casos no es necesario conocer la dirección MAC, ni para montar una red doméstica, ni para configurar la conexión a internet. Pero si queremos configurar una red wifi y habilitar en el punto de acceso un sistema de filtrado basado en MAC (a veces denominado filtrado por hardware), el cual solo permitirá el acceso a la red a adaptadores de red concretos, identificados con su MAC, entonces necesitamos conocer dicha dirección. Dicho medio de seguridad se puede considerar como un refuerzo de otros sistemas de seguridad, ya que teóricamente se trata de una dirección única y permanente, aunque en todos los sistemas operativos hay métodos que permiten a las tarjetas de red identificarse con direcciones MAC distintas de la real.
La dirección MAC es utilizada en varias tecnologías entre las que se incluyen:
Ethernet
802.3 CSMA/CD
802.5 o redes en anillo a 4 Mbps o 16 Mbps Token Ring
802.11 redes inalámbricas (WIFI).
ATM
MAC opera en la capa 2 del modelo OSI, encargada de hacer fluir la información libre de errores entre dos máquinas conectadas directamente. Para ello se generan tramas, pequeños bloques de información que contienen en su cabecera las direcciones MAC correspondiente al emisor y receptor de la información.
IEEE 802
IEEE 802 es un estudio de estándares perteneciente al Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), que actúa sobre Redes de Ordenadores, concretamente y según su propia definición sobre redes de área local (RAL, en inglés LAN) y redes de área metropolitana (MAN en inglés). También se usa el nombre IEEE 802 para referirse a los estándares que proponen, y algunos de los cuales son muy conocidos: Ethernet (IEEE 802.3), o Wi-Fi (IEEE 802.11), incluso está intentando estandarizar Bluetooth en el 802.15.
Se centra en definir los niveles más bajos (según el modelo de referencia OSI o sobre cualquier otro modelo), concretamente subdivide el segundo nivel, el de enlace, en dos subniveles, el de enlace lógico, recogido en 802.2, y el de acceso al medio. El resto de los estándares recogen tanto el nivel físico, como el subnivel de acceso al medio.
IEEE 802.3
La primera versión fue un intento de estandarizar ethernet aunque hubo un campo de la cabecera que se definió de forma diferente, posteriormente ha habido ampliaciones sucesivas al estándar que cubrieron las ampliaciones de velocidad (Fast Ethernet, Gigabit Ethernet y el de 10 Gigabits), redes virtuales, hubs, conmutadores y distintos tipos de medios, tanto de fibra óptica como de cables de cobre (tanto par trenzado como coaxial).
Los estándares de este grupo no reflejan necesariamente lo que se usa en la práctica, aunque a diferencia de otros grupos este suele estar cerca de la realidad.
IEEE 802.5 [editar]El IEEE 802.5 es un estándar por el Institute of Electrical and Electronics Engineers (IEEE), y define una red de área local LAN en configuración de anillo (Ring), con método de paso de testigo (Token) como control de acceso al medio. La velocidad de su estándar es de 4 ó 16 Mbps.
El diseño de una red de Token Ring fue atribuido a E. E. Newhall en el año 1969. International Business Machines (IBM) publicó por primera vez su topología de Token Ring en marzo de [1982], cuando esta compañía presentó los papeles para el proyecto 802 del IEEE. IBM anunció un producto Token Ring en 1984, y en 1985 éste llegó a ser un estándar de ANSI/IEEE.
Es casi idéntica y totalmente compatible con la red del token ring de IBM. De hecho, la especificación de IEEE 802.5 fue modelada después del token ring, y continúa sombreando el desarrollo del mismo. Además, el token ring de la IBM especifica una estrella, con todas las estaciones del extremo unidas a un dispositivo al que se le llama "unidad del acceso multiestación" (MSAU). En contraste, IEEE 802.5 no especifica una topología, aunque virtualmente todo el IEEE 802.5 puesto en práctica se basa en una estrella, y tampoco especifica un tipo de medios, mientras que las redes del token ring de la IBM utilizan el tamaño del campo de información de encaminamiento.
El IEEE 802.5 soporta dos tipos de frames básicos: tokens y frames de comandos y de datos. El Token es una trama que circula por el anillo en su único sentido de circulación. Cuando una estación desea transmitir y el Token pasa por ella, lo toma. Éste sólo puede permanecer en su poder un tiempo determinado (10 ms). Tienen una longitud de 3 bytes y consiste en un delimitador de inicio, un byte de control de acceso y un delimitador de fin. En cuanto a los Frames de comandos y de datos pueden variar en tamaño, dependiendo del tamaño del campo de información. Los frames de datos tienen información para protocolos mayores, mientras que los frames de comandos contienen información de control.
LLC
Control de enlace lógico LLC ("Logical Link Control") define la forma en que los datos son transferidos sobre el medio físico, proporcionando servicio a las capas superiores.
Es la más alta de las dos subcapas de enlace de datos definidas por el IEEE y la responsable del control de enlace lógico. La subcapa LLC maneja el control de errores, control del flujo, entramado y direccionamiento de la subcapa MAC. El protocolo LLC más generalizado es IEEE 802.2, que incluye variantes no orientado a conexión y orientadas a conexión.
En la subcapa LLC se contemplan dos aspectos bien diferenciados:
Los Los protocolos LLC: Para la comunicación entre entidades de la propia subcapa LLC, definen los procedimientos para el intercambio de tramas de información y de control entre cualquier par de puntos de acceso al servicio del nivel de enlace LSAP.
Las interfaces: con la subcapa inferior MAC y con la capa superior (de Red).
Interfaz LLC – MAC: Especifica los servicios que la subcapa de LLC requiere de la subcapa MAC, independientemente de la topología de la subred y del tipo de acceso al medio.
Interfaz LLC – Capa de Red Modelo OSI: Especifica los servicios que la Capa de Red Modelo OSI obtiene de la Capa de Enlace Modelo OSI, independientemente de su configuración.
MAC
En redes de ordenadores la dirección MAC (siglas en inglés de Media Access Control o control de acceso al medio) es un identificador de 48 bits (6 bloques hexadecimales) que corresponde de forma única a una ethernet de red. Se conoce también como la dirección física en cuanto identificar dispositivos de red. Es individual, cada dispositivo tiene su propia dirección MAC determinada y configurada por el IEEE (los últimos 24 bits) y el fabricante (los primeros 24 bits) utilizando el OUI. La mayoría de los protocolos que trabajan en la capa 2 del modelo OSI usan una de las tres numeraciones manejadas por el IEEE: MAC-48, EUI-48, y EUI-64 las cuales han sido diseñadas para ser identificadores globalmente únicos. No todos los protocolos de comunicación usan direcciones MAC, y no todos los protocolos requieren identificadores globalmente únicos.
Las direcciones MAC son únicas a nivel mundial, puesto que son escritas directamente, en forma binaria, en el hardware en su momento de fabricación. Debido a esto, las direcciones MAC son a veces llamadas "Direcciones Quemadas Dentro" (BIA, por las siglas de Burned-in Address).
Si nos fijamos en la definición como cada bloque hexadecimal son 8 dígitos binarios (bits), tendríamos:
6*8=48 bits únicos
En la mayoría de los casos no es necesario conocer la dirección MAC, ni para montar una red doméstica, ni para configurar la conexión a internet. Pero si queremos configurar una red wifi y habilitar en el punto de acceso un sistema de filtrado basado en MAC (a veces denominado filtrado por hardware), el cual solo permitirá el acceso a la red a adaptadores de red concretos, identificados con su MAC, entonces necesitamos conocer dicha dirección. Dicho medio de seguridad se puede considerar como un refuerzo de otros sistemas de seguridad, ya que teóricamente se trata de una dirección única y permanente, aunque en todos los sistemas operativos hay métodos que permiten a las tarjetas de red identificarse con direcciones MAC distintas de la real.
La dirección MAC es utilizada en varias tecnologías entre las que se incluyen:
Ethernet
802.3 CSMA/CD
802.5 o redes en anillo a 4 Mbps o 16 Mbps Token Ring
802.11 redes inalámbricas (WIFI).
ATM
MAC opera en la capa 2 del modelo OSI, encargada de hacer fluir la información libre de errores entre dos máquinas conectadas directamente. Para ello se generan tramas, pequeños bloques de información que contienen en su cabecera las direcciones MAC correspondiente al emisor y receptor de la información.
IEEE 802
IEEE 802 es un estudio de estándares perteneciente al Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), que actúa sobre Redes de Ordenadores, concretamente y según su propia definición sobre redes de área local (RAL, en inglés LAN) y redes de área metropolitana (MAN en inglés). También se usa el nombre IEEE 802 para referirse a los estándares que proponen, y algunos de los cuales son muy conocidos: Ethernet (IEEE 802.3), o Wi-Fi (IEEE 802.11), incluso está intentando estandarizar Bluetooth en el 802.15.
Se centra en definir los niveles más bajos (según el modelo de referencia OSI o sobre cualquier otro modelo), concretamente subdivide el segundo nivel, el de enlace, en dos subniveles, el de enlace lógico, recogido en 802.2, y el de acceso al medio. El resto de los estándares recogen tanto el nivel físico, como el subnivel de acceso al medio.
IEEE 802.3
La primera versión fue un intento de estandarizar ethernet aunque hubo un campo de la cabecera que se definió de forma diferente, posteriormente ha habido ampliaciones sucesivas al estándar que cubrieron las ampliaciones de velocidad (Fast Ethernet, Gigabit Ethernet y el de 10 Gigabits), redes virtuales, hubs, conmutadores y distintos tipos de medios, tanto de fibra óptica como de cables de cobre (tanto par trenzado como coaxial).
Los estándares de este grupo no reflejan necesariamente lo que se usa en la práctica, aunque a diferencia de otros grupos este suele estar cerca de la realidad.
IEEE 802.5 [editar]El IEEE 802.5 es un estándar por el Institute of Electrical and Electronics Engineers (IEEE), y define una red de área local LAN en configuración de anillo (Ring), con método de paso de testigo (Token) como control de acceso al medio. La velocidad de su estándar es de 4 ó 16 Mbps.
El diseño de una red de Token Ring fue atribuido a E. E. Newhall en el año 1969. International Business Machines (IBM) publicó por primera vez su topología de Token Ring en marzo de [1982], cuando esta compañía presentó los papeles para el proyecto 802 del IEEE. IBM anunció un producto Token Ring en 1984, y en 1985 éste llegó a ser un estándar de ANSI/IEEE.
Es casi idéntica y totalmente compatible con la red del token ring de IBM. De hecho, la especificación de IEEE 802.5 fue modelada después del token ring, y continúa sombreando el desarrollo del mismo. Además, el token ring de la IBM especifica una estrella, con todas las estaciones del extremo unidas a un dispositivo al que se le llama "unidad del acceso multiestación" (MSAU). En contraste, IEEE 802.5 no especifica una topología, aunque virtualmente todo el IEEE 802.5 puesto en práctica se basa en una estrella, y tampoco especifica un tipo de medios, mientras que las redes del token ring de la IBM utilizan el tamaño del campo de información de encaminamiento.
El IEEE 802.5 soporta dos tipos de frames básicos: tokens y frames de comandos y de datos. El Token es una trama que circula por el anillo en su único sentido de circulación. Cuando una estación desea transmitir y el Token pasa por ella, lo toma. Éste sólo puede permanecer en su poder un tiempo determinado (10 ms). Tienen una longitud de 3 bytes y consiste en un delimitador de inicio, un byte de control de acceso y un delimitador de fin. En cuanto a los Frames de comandos y de datos pueden variar en tamaño, dependiendo del tamaño del campo de información. Los frames de datos tienen información para protocolos mayores, mientras que los frames de comandos contienen información de control.
ENLACE DE DATOS
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgj4B4Z-09Ls0gq5UpWvki0wahFzNWMOhY4upHnS51j-MMraRguqDFrOOCHK09aj2xhjpPBgdUM41bFEfAOZ2pIbSG8OZeroENx8gwpgDSVskF63acsTOlCyk4Qng7g1g020pjZTIUZNU6e/s320/ENLACE+DE+DATOS.jpg)
Conjunto de los medios utilizados para transmitir entre 2 puntos designados una señal digital que tiene una velocidad binaria nominal especificada. El conjunto de piezas de 2 estaciones de trabajo de datos que están controlados por medio de un protocolo de enlace y del circuito de datos de interconexión que habilita los datos a transferir desde una fuente de datos a un destino de datos (2) El circuito de datos de interconexión y el protocolo de enlace entre 2 o mas estaciones de trabajo, sin incluir la fuente de datos o el destino de los mismos. (3) la conexión física y los protocolos de conexión entre unidades que intercambian datos a través de una linea de telecomunciaciones.
viernes, 12 de marzo de 2010
2.0 EN CUATRO LINEAS FUNDAMENTALES
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh_Xd0F7W_hsvRsVfCIkoCbNJFv-Nvb96SFW-sGjOA-w4aLmURp_yLzw-IP9u4Amcaxe6oNhr626LxbJZ6P1VMQ34hm6VMBMuYTsFBT5qpKETM2OUkZ_xHF5f_x5r0icjYNvu92GhyphenhyphenhOLtA/s320/WEB+2.0.jpg)
Como muchos saben la evolución de las herramientas tecnológicas ha sido una bomba por lo que han surgido nuevas formas y tendencias de desarrollo web y la más sonada en estos días es la WEB SOCIAL o también conocida como la Web 2.0 esta es muy bueno ya que trata de incorporar a las personas empapadas en el tema y dar a conocer a las personas que no están al tanto del asunto.
Se pretende ordenar a la Web 2.0 en cuatro líneas fundamentales:
Las REDES SOCIALES es la descripción de herramientas que nos sirvan para promover y/o facilitar la unión de comunidades de intercambio social.
El CONTENIDO hace mención de las herramientas que favorecen la escritura y lectura en línea así como el intercambio y distribución.
En la ORGANIZACIÓN SOCIAL DE LA INFORMACION son las herramientas y recursos que nos permitirán rotular, señalar e indexar y otros recursos de la red para mantener ordenada la información.
APLICACIONES Y SERVICIOS (MASHUP) aquí podemos incluir muchas herramientas y programas escenarios en línea y todo para el usuario final.
Existen muchos lugares de publicación para el tipo de contenido anterior estamos al tanto que el internet es la red más grande del mundo que nos conecta y cada día está más al alcance de los países pobres.
La Web 2.0 nos da una amplia gama de herramientas y alternativas para promover el intercambio social integrando los materiales multimedia como ser: imágenes, sonido, video y texto.
Ahora es posible que el usuario puede elabora sus propios sitios web, espacios en internet, crear perfiles, etc. Sin la necesidad de haber estudiado inmensos lenguajes de programación o contar con el equipo de última tecnología para elaborarla. Todo esto es posible gracias a la Web 2.0.
TAXONOMIA
Taxonomía
La taxonomía (del griego ταξις, taxis, "ordenamiento", y νομος, nomos, "norma" o "regla") es, en su sentido más general, la ciencia de la clasificación. Habitualmente, se emplea el término para designar a la taxonomía biológica, la ciencia de ordenar a los organismos en un sistema de clasificación compuesto por una jerarquía de taxones anidados.
Los árboles filogenéticos tienen forma de dendrogramas. Cada nodo del dendrograma se corresponde con un clado: un grupo de organismos emparentados que comparten una población ancestral común (que no necesariamente estaba compuesta de un único individuo). Los nodos terminales (aquí simbolizados por letras individuales) no pueden ir más allá de las especies, ya que por definición, por debajo de la categoría especie no se pueden formar grupos reproductivamente aislados entre sí, y por lo tanto no evolucionan como linajes independientes, por lo que no pueden ser representados por un diagrama en forma de árbol.La Taxonomía Biológica es una subdisciplina de la Biología Sistemática, que estudia las relaciones de parentesco entre los organismos y su historia evolutiva. Actualmente, la Taxonomía actúa después de haberse resuelto el árbol filogenético de los organismos estudiados, esto es, una vez que están resueltos los clados, o ramas evolutivas, en función de las relaciones de parentesco entre ellos.
En la actualidad existe el consenso en la comunidad científica de que la clasificación debe ser enteramente consistente con lo que se sabe de la filogenia de los taxones, ya que sólo entonces dará el servicio que se espera de ella al resto de las ramas de la Biología (ver por ejemplo Soltis y Soltis 2003[1] ), pero hay escuelas dentro de la Biología Sistemática que definen con matices diferentes la manera en que la clasificación debe corresponderse con la filogenia conocida.
Más allá de la escuela que la defina, el fin último de la Taxonomía es organizar al árbol filogenético en un sistema de clasificación. Para ello, la escuela cladística (la que predomina hoy en día) convierte a los clados en taxones. Un taxón es un clado al que fue asignada una categoría taxonómica, al que se otorgó un nombre en latín, del que se hizo una descripción, al que se asoció a un ejemplar "tipo", y que fue publicado en una revista científica. Cuando se hace todo esto, el taxón tiene un nombre correcto. La Nomenclatura es la subdisciplina que se ocupa de reglamentar estos pasos, y se ocupa de que se atengan a los principios de nomenclatura. Los sistemas de clasificación que nacen como resultado, funcionan como contenedores de información por un lado, y como predictores por otro
La taxonomía (del griego ταξις, taxis, "ordenamiento", y νομος, nomos, "norma" o "regla") es, en su sentido más general, la ciencia de la clasificación. Habitualmente, se emplea el término para designar a la taxonomía biológica, la ciencia de ordenar a los organismos en un sistema de clasificación compuesto por una jerarquía de taxones anidados.
Los árboles filogenéticos tienen forma de dendrogramas. Cada nodo del dendrograma se corresponde con un clado: un grupo de organismos emparentados que comparten una población ancestral común (que no necesariamente estaba compuesta de un único individuo). Los nodos terminales (aquí simbolizados por letras individuales) no pueden ir más allá de las especies, ya que por definición, por debajo de la categoría especie no se pueden formar grupos reproductivamente aislados entre sí, y por lo tanto no evolucionan como linajes independientes, por lo que no pueden ser representados por un diagrama en forma de árbol.La Taxonomía Biológica es una subdisciplina de la Biología Sistemática, que estudia las relaciones de parentesco entre los organismos y su historia evolutiva. Actualmente, la Taxonomía actúa después de haberse resuelto el árbol filogenético de los organismos estudiados, esto es, una vez que están resueltos los clados, o ramas evolutivas, en función de las relaciones de parentesco entre ellos.
En la actualidad existe el consenso en la comunidad científica de que la clasificación debe ser enteramente consistente con lo que se sabe de la filogenia de los taxones, ya que sólo entonces dará el servicio que se espera de ella al resto de las ramas de la Biología (ver por ejemplo Soltis y Soltis 2003[1] ), pero hay escuelas dentro de la Biología Sistemática que definen con matices diferentes la manera en que la clasificación debe corresponderse con la filogenia conocida.
Más allá de la escuela que la defina, el fin último de la Taxonomía es organizar al árbol filogenético en un sistema de clasificación. Para ello, la escuela cladística (la que predomina hoy en día) convierte a los clados en taxones. Un taxón es un clado al que fue asignada una categoría taxonómica, al que se otorgó un nombre en latín, del que se hizo una descripción, al que se asoció a un ejemplar "tipo", y que fue publicado en una revista científica. Cuando se hace todo esto, el taxón tiene un nombre correcto. La Nomenclatura es la subdisciplina que se ocupa de reglamentar estos pasos, y se ocupa de que se atengan a los principios de nomenclatura. Los sistemas de clasificación que nacen como resultado, funcionan como contenedores de información por un lado, y como predictores por otro
SISTEMA OPERATIVO UBUNTU
Ubuntu (AFI: /uˈbuntu/), o Ubuntu Linux, es una distribución GNU/Linux basada en Debian GNU/Linux, cuyo nombre proviene de la ideología sudafricana Ubuntu ("humanidad hacia otros").
Proporciona un sistema operativo actualizado y estable para el usuario promedio, con un fuerte enfoque en la facilidad de uso y de instalación del sistema. Al igual que otras distribuciones se compone de múltiples paquetes de software normalmente distribuidos bajo una licencia libre o de código abierto.
Ubuntu está patrocinado por Canonical Ltd., una compañía británica propiedad del empresario sudafricano Mark Shuttleworth que en vez de vender la distribución con fines lucrativos, se financia por medio de servicios vinculados al sistema operativo y vendiendo soporte técnico. Además, al mantenerlo libre y gratuito, la empresa es capaz de aprovechar el talento de los desarrolladores de la comunidad en mejorar los componentes de su sistema operativo. Canonical también apoya y proporciona soporte para cuatro derivaciones de Ubuntu: Kubuntu, Xubuntu Edubuntu y la versión de Ubuntu orientada a servidores ("Ubuntu Server Edition").
Cada seis meses se publica una nueva versión de Ubuntu la cual recibe soporte por parte de Canonical, durante dieciocho meses, por medio de actualizaciones de seguridad, parches para bugs críticos y actualizaciones menores de programas. Las versiones LTS (Long Term Support), que se liberan cada dos años, reciben soporte durante tres años en los sistemas de escritorio y cinco para la edición orientada a servidores.
Ubuntu y sus derivadas oficiales fueron seleccionadas por los lectores de desktoplinux.com como una de las distribuciones más populares, llegando a alcanzar aproximadamente el 30% de las instalaciones de Linux en computadoras de escritorio tanto en 2006 como en 2007.
Proporciona un sistema operativo actualizado y estable para el usuario promedio, con un fuerte enfoque en la facilidad de uso y de instalación del sistema. Al igual que otras distribuciones se compone de múltiples paquetes de software normalmente distribuidos bajo una licencia libre o de código abierto.
Ubuntu está patrocinado por Canonical Ltd., una compañía británica propiedad del empresario sudafricano Mark Shuttleworth que en vez de vender la distribución con fines lucrativos, se financia por medio de servicios vinculados al sistema operativo y vendiendo soporte técnico. Además, al mantenerlo libre y gratuito, la empresa es capaz de aprovechar el talento de los desarrolladores de la comunidad en mejorar los componentes de su sistema operativo. Canonical también apoya y proporciona soporte para cuatro derivaciones de Ubuntu: Kubuntu, Xubuntu Edubuntu y la versión de Ubuntu orientada a servidores ("Ubuntu Server Edition").
Cada seis meses se publica una nueva versión de Ubuntu la cual recibe soporte por parte de Canonical, durante dieciocho meses, por medio de actualizaciones de seguridad, parches para bugs críticos y actualizaciones menores de programas. Las versiones LTS (Long Term Support), que se liberan cada dos años, reciben soporte durante tres años en los sistemas de escritorio y cinco para la edición orientada a servidores.
Ubuntu y sus derivadas oficiales fueron seleccionadas por los lectores de desktoplinux.com como una de las distribuciones más populares, llegando a alcanzar aproximadamente el 30% de las instalaciones de Linux en computadoras de escritorio tanto en 2006 como en 2007.
BIBLIOGRAFIA DE JOSE LUIS BORGES
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg441UUJS_Gx0R1NCagqB8cffsuyITDkYy8fWtKTvkYw0NHROWjptbFxIMVnRYVisE-82Z1Xrvz0fpWc1j1Y12LyGaiQvwpHzvyiECJxC0ZRzPOu_OJwBQ5EtOE02CAqOIQSFVMGNLEg3Ll/s320/BORGES.jpg)
POESÍA
Fervor de Buenos Aires (1923)
Luna de enfrente (1925)
Cuaderno San Martín (1929)
Poemas (1923-1943)
El hacedor (1960)
Para las seis cuerdas (1967)
El otro, el mismo (1969)
Elogio de la sombra (1969)
El oro de los tigres (1972)
La rosa profunda (1975)
Obra poética (1923-1976)
La moneda de hierro (1976)
Historia de la noche (1976)
La cifra (1981)
Los conjurados (1985)
ENSAYOS
Inquisiciones (1925)
El tamaño de mi esperanza (1926)
El idioma de los argentinos (1928)
Evaristo Carriego (1930)
Discusión (1932)
Historia de la eternidad (1936)
Aspectos de la poesía gauchesca (1950)
Otras inquisiciones (1952)
El congreso (1971)
Libro de sueños (1976)
Historia universal de la infamia (1935)
El libro de los seres imaginarios (1968)
Atlas (1985)
CUENTOS
El jardín de senderos que se bifurcan (1941)
Ficciones (1944)
El Aleph (1949)
La muerte y la brújula (1951)
El informe Brodie (1970)
El libro de arena (1975)
EN COLABORACION CON ADOLFO BIOY CASARES
Seis problemas para don Isidro Parodi (1942)
Un modelo para la muerte (1946)
Dos fantasías memorables (1946)
Los orilleros (1955). Guión cinematográfico.
El paraíso de los creyentes (1955). Guión cinematográfico.
Nuevos cuentos de Bustos Domecq (1977).
CON OTROS AUTORES
Antiguas literaturas germánicas (México, 1951)
El "Martín Fierro"(1953)
Leopoldo Lugones (1955)
La hermana Eloísa (1955)
Manual de zoología fantástica (México, 1957)
Antología de la literatura fantástica (1940)
Obras escogidas (1948)
Obras completas (1953)
Nueva antología personal (1968)
Obras completas (1972)
Prólogos (1975)
Obras completas en colaboración (1979)
Textos cautivos (1986), textos publicados en la revista El hogar
Borges en revista multicolor (1995): notas, traducciones y reseñas bibliográficas en el diario Crítica.
BORGES: EL ALEPH
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjX6XB4oSvFVKBBWX8uMN0Mx7QpmnQmirL-JaVmcjhwR83Uz-_0CJihTU3PO65-3oSUA4s6tPPW_OlgGThLiQDpGZzJ5YaGbG33tIclxSveqbcavWuXy3mWV8nTQIJVMyxVrYPLwjOkadkg/s320/ALEP.png)
Cuento (1949) de José Luís Borges (1899-1986).La candente mañana de febrero en que Beatriz Viterbo murió, después de una imperiosa agonía que no se rebajó un solo instante ni al sentimentalismo ni al miedo, noté que las carteleras de fierro de la Plaza Constitución habían renovado no sé qué aviso de cigarrillos rubios; el hecho me dolió, pues comprendí que el incesante y vasto universo ya se apartaba de ella y que ese cambio era el primero de una serie infinita. Cambiará el universo pero yo no (…). Consideré que el 30 de abril era su cumpleaños; visitar ese día la casa la calle Garay para saludar a su padre y a Carlos Argentino Daneri, su primo hermano, era un acto cortés, irreprochable, tal vez ineludible. (…)
Beatriz Viterbo murió en 1929; desde entonces no dejé pasar un 30 de abril sin volver a su casa (…)
Dos domingos después, Daneri me llamó por teléfono, entiendo que por primera vez en la vida. Me propuso que nos reuniéramos a las cuatro (…).
Dijo que para terminar el poema le era indispensable la casa, pues en un ángulo del sótano había un Aleph. Aclaró que un Aleph es uno de los puntos del espacio que contienen todos los puntos.
jueves, 11 de marzo de 2010
martes, 9 de marzo de 2010
PERTURBACIONES EN LA TRANSMISION
Las perturbaciones en una transmisión de señales analógicas o digitales es inevitable, pues existen una serie de factores que afectan a la calidad de las señales transmitidas por lo que nunca serán iguales a las señales recibidas.
En las señales digitales esto limita la velocidad de transmisión pues estas perturbaciones en una línea de transmisión producen el incremento en la taza de errores de bits, y en una señal analógica esta línea de transmisión introduce variaciones de amplitud y frecuencia lo que degrada la calidad de la señal.
Las principales perturbaciones son:
Atenuación.
Reflexión.
Ruido.
Dispersión.
Fluctuasión de fase.
Latencia.
ATENUACION Es la pérdida de energía conforme la señal se propaga hacia su destino.
Si la atenuación es mucha, puede que el receptor no sea capaz de detectar en absoluto la señal.
Se pueden insertar repetidores para tratar de compensar el problema
REFLEXION Es un fenómeno que puede ser provocado por rupturas de cables, derivaciones malas y conectores sueltos, si el pulso o señal incide en un obstáculo se generará un eco que viajará de regreso.
Si se cronometra el intervalo entre el envío del pulso y la recepción del eco, es posible ubicar el punto de reflexión. Esta técnica se llama Reflectometría en el dominio del tiempo
RUIDO Es el conjunto de señales extrañas a la transmisión que se introducen en el medio de transmisión provocando alteraciones de amplitud del voltaje y variaciones de frecuencia.
ATENUACION [editar]Es la perdida de potencia que se produce en el medio de transmisión por la longitud que esta presenta, pues la potencia de la señal recibida es inversamente proporcional a la distancia entre el transmisor y el receptor. En medios guiados esta atenuación es representado por la proporciona de la potencia transmitida y la potencia recibida:
A= log(Pt/Pr)
Donde:
*A= atenuación
*Pt=Potencia transmitida
*Pr= potencia recibida
DISPERSION Fenómeno que ocurre cuando los pulsos transmitidos aumentan conforme se propagan, por consecuencia un bit puede comenzar a interferir con el bit siguiente y confundirlo con los bits que se encuentran antes y después de él.
FLUCTUACION DE FASE El envío de una señal requiere de una sincronización de reloj entre el origen y el destino, sí esto no ocurre , los bits llegarán un poco antes o más tarde de lo esperado a este fenómeno se le conoce como fluctuación de fase de temporización. Esto puede provocar errores cuando el computador que recibe los bits trata de volver a unirlos en un mensaje.
LATENCIA La trama enviada debe idealmente llegar al destino en un tiempo determinado, sin embargo siempre se produce demoras debido a :
Cuando la trama atraviesa cualquier dispositivo, los transistores y los dispositivos electrónicos provocan demora en su transito.
Retraso entre el tiempo de acceso a la red y el tiempo en que se le otorga el permiso para transmitir.
Retraso entre el tiempo en que el dispositivo recibe una trama y el tiempo en que la trama se envía al puerto de destino.
En las señales digitales esto limita la velocidad de transmisión pues estas perturbaciones en una línea de transmisión producen el incremento en la taza de errores de bits, y en una señal analógica esta línea de transmisión introduce variaciones de amplitud y frecuencia lo que degrada la calidad de la señal.
Las principales perturbaciones son:
Atenuación.
Reflexión.
Ruido.
Dispersión.
Fluctuasión de fase.
Latencia.
ATENUACION Es la pérdida de energía conforme la señal se propaga hacia su destino.
Si la atenuación es mucha, puede que el receptor no sea capaz de detectar en absoluto la señal.
Se pueden insertar repetidores para tratar de compensar el problema
REFLEXION Es un fenómeno que puede ser provocado por rupturas de cables, derivaciones malas y conectores sueltos, si el pulso o señal incide en un obstáculo se generará un eco que viajará de regreso.
Si se cronometra el intervalo entre el envío del pulso y la recepción del eco, es posible ubicar el punto de reflexión. Esta técnica se llama Reflectometría en el dominio del tiempo
RUIDO Es el conjunto de señales extrañas a la transmisión que se introducen en el medio de transmisión provocando alteraciones de amplitud del voltaje y variaciones de frecuencia.
ATENUACION [editar]Es la perdida de potencia que se produce en el medio de transmisión por la longitud que esta presenta, pues la potencia de la señal recibida es inversamente proporcional a la distancia entre el transmisor y el receptor. En medios guiados esta atenuación es representado por la proporciona de la potencia transmitida y la potencia recibida:
A= log(Pt/Pr)
Donde:
*A= atenuación
*Pt=Potencia transmitida
*Pr= potencia recibida
DISPERSION Fenómeno que ocurre cuando los pulsos transmitidos aumentan conforme se propagan, por consecuencia un bit puede comenzar a interferir con el bit siguiente y confundirlo con los bits que se encuentran antes y después de él.
FLUCTUACION DE FASE El envío de una señal requiere de una sincronización de reloj entre el origen y el destino, sí esto no ocurre , los bits llegarán un poco antes o más tarde de lo esperado a este fenómeno se le conoce como fluctuación de fase de temporización. Esto puede provocar errores cuando el computador que recibe los bits trata de volver a unirlos en un mensaje.
LATENCIA La trama enviada debe idealmente llegar al destino en un tiempo determinado, sin embargo siempre se produce demoras debido a :
Cuando la trama atraviesa cualquier dispositivo, los transistores y los dispositivos electrónicos provocan demora en su transito.
Retraso entre el tiempo de acceso a la red y el tiempo en que se le otorga el permiso para transmitir.
Retraso entre el tiempo en que el dispositivo recibe una trama y el tiempo en que la trama se envía al puerto de destino.
SEÑALES ANALOGICAS
UNA SEÑAL ANALOGICA puede verse como una forma de onda que toma un continuo de valores en cualquier tiempo dentro de un intervalo de tiempos. Si bien un dispositivo de media puede ser la resolución limitada (esto es, tal vez no sea posible leer un voltímetro análogo con un exactitud mayor que la centésima más cercana de un voltio), la señal real puede tomar una infinidad de valores posibles. Por ejemplo, usted puede leer que el valor de una forma de onda de voltaje en un tiempo particular es de 10.45 voltios. Si el voltaje es una señal analógica, el valor real se expresaría como un decimal extendido con un número infinito de dígitos a la derecha del punto decimal.
Al igual que la ordenada de la función contiene una infinidad de valores, sucede lo mismo con el eje de tiempo. A pesar de que se descompone convenientemente el eje del tiempo en puntos (por ejemplo, cada microsegundo en un osciloscopio), la función tiene un valor definido para cualquiera de la infinidad de puntos en el tiempo entre cualesquiera dos puntos de resolución. Suponga ahora que una señal de tiempo analógica se define solo en puntos de tiempo discretos. Por ejemplo, considere que lee una forma de onda de voltaje enviando valores a un voltímetro cada microsegundo. La función que resulta solo es conocida en estos puntos discretos en el tiempo. Esto da lugar a una función de tiempo discreta o a una forma de onda muestreada. Esta se distingue de una forma de onda analógica continua por la manera en la que se especifica la función. En el caso de la forma de onda analógica continua, debe ya sea exhibirse la función (esto es, gráficamente, en un osciloscopio), o dar una relación funcional entre las variables. En contraste con lo anterior, la señal discreta se concibe como una lista o secuencia de números. De tal manera que mientras una forma de onda analógica se expresa como una función de tiempo, v(t), la forma de onda discreta es una secuencia de la forma, Vn o v(n), donde n es un entero o índice.
UNA SEÑAL DIGITAL:es una forma de onda muestreada o discreta, pero cada número en la lista puede, en este caso, tomar solo valores específicos. Por ejemplo, si se toma una forma de onda de voltaje muestreada y se redondea cada valor a la décima de voltio más cercana, el resultado es una señal digital.
Se puede utilizar un termómetro como un ejemplo de los tres tipos de señales. Si el termómetro tiene un indicador o un tubo de mercurio, la salida es una señal analógica. Ya que se puede leer la temperatura en cualquier momento y con cualquier grado de exactitud (limitada, desde luego, por la resolución del lector, humana o mecánica). Suponga ahora que el termómetro consta de un indicador, pero que solo se actualiza una vez cada minuto. El resultado es una señal analógica muestreada Si el indicador del termómetro toma ahora la forma de un lector numérico, el termómetro se vuelve digital. La lectura es el resultado de muestrear la temperatura (quizás cada minuto) y de exhibir luego la temperatura muestreada hasta una resolución predeterminada (tal vez el 1/10 de grado más cercano).
Las señales digitales provienen de muchos dispositivos. Por ejemplo, marcar un número telefónico produce una de 12 posibilidades señales dependiendo de cual botón se oprime Otros ejemplos incluyen oprimir teclas en un cajero automático bancario (CAB) o usar un teclado de computadora. Las señales digitales son resultado también de efectuar operaciones de conversación analógico-digitales.
Al igual que la ordenada de la función contiene una infinidad de valores, sucede lo mismo con el eje de tiempo. A pesar de que se descompone convenientemente el eje del tiempo en puntos (por ejemplo, cada microsegundo en un osciloscopio), la función tiene un valor definido para cualquiera de la infinidad de puntos en el tiempo entre cualesquiera dos puntos de resolución. Suponga ahora que una señal de tiempo analógica se define solo en puntos de tiempo discretos. Por ejemplo, considere que lee una forma de onda de voltaje enviando valores a un voltímetro cada microsegundo. La función que resulta solo es conocida en estos puntos discretos en el tiempo. Esto da lugar a una función de tiempo discreta o a una forma de onda muestreada. Esta se distingue de una forma de onda analógica continua por la manera en la que se especifica la función. En el caso de la forma de onda analógica continua, debe ya sea exhibirse la función (esto es, gráficamente, en un osciloscopio), o dar una relación funcional entre las variables. En contraste con lo anterior, la señal discreta se concibe como una lista o secuencia de números. De tal manera que mientras una forma de onda analógica se expresa como una función de tiempo, v(t), la forma de onda discreta es una secuencia de la forma, Vn o v(n), donde n es un entero o índice.
UNA SEÑAL DIGITAL:es una forma de onda muestreada o discreta, pero cada número en la lista puede, en este caso, tomar solo valores específicos. Por ejemplo, si se toma una forma de onda de voltaje muestreada y se redondea cada valor a la décima de voltio más cercana, el resultado es una señal digital.
Se puede utilizar un termómetro como un ejemplo de los tres tipos de señales. Si el termómetro tiene un indicador o un tubo de mercurio, la salida es una señal analógica. Ya que se puede leer la temperatura en cualquier momento y con cualquier grado de exactitud (limitada, desde luego, por la resolución del lector, humana o mecánica). Suponga ahora que el termómetro consta de un indicador, pero que solo se actualiza una vez cada minuto. El resultado es una señal analógica muestreada Si el indicador del termómetro toma ahora la forma de un lector numérico, el termómetro se vuelve digital. La lectura es el resultado de muestrear la temperatura (quizás cada minuto) y de exhibir luego la temperatura muestreada hasta una resolución predeterminada (tal vez el 1/10 de grado más cercano).
Las señales digitales provienen de muchos dispositivos. Por ejemplo, marcar un número telefónico produce una de 12 posibilidades señales dependiendo de cual botón se oprime Otros ejemplos incluyen oprimir teclas en un cajero automático bancario (CAB) o usar un teclado de computadora. Las señales digitales son resultado también de efectuar operaciones de conversación analógico-digitales.
USO DEL VOLTIMETRO
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiEY43dsIZ3OrrWBvFWIysDXi2W7R7j60JSDmyFn3brXk9j-J5PechdIW9TiC-9q5V_NJHghUdUOaaCqHoc_XQBFCYLj6w8qAcoCuLt47vLzi3zeSsNYGqyU-NRu-n3iFIEU4IOgI2lT-0E/s320/VOLTIMETRO.jpg)
Un voltímetro es un instrumento que sirve para medir la diferencia de potencial entre dos puntos de un circuito eléctrico.
Utilización Para efectuar la medida de la diferencia de potencial el voltímetro ha de colocarse en paralelo; esto es, en derivación sobre los puntos entre los que tratamos de efectuar la medida. Esto nos lleva a que el voltímetro debe poseer una resistencia interna lo más alta posible, a fin de que no produzca un consumo apreciable, lo que daría lugar a una medida errónea de la tensión. Para ello, en el caso de instrumentos basados en los efectos electromagnéticos de la corriente eléctrica, estarán dotados de bobinas de hilo muy fino y con muchas espiras, con lo que con poca intensidad de corriente a través del aparato se consigue el momento necesario para el desplazamiento de la aguja indicadora.
En la actualidad existen dispositivos digitales que realizan la función del voltímetro presentando unas características de aislamiento bastante elevadas empleando complejos circuitos de aislamiento.
viernes, 5 de marzo de 2010
ES POR TI
martes, 2 de marzo de 2010
TIM BERNERS LEE
TIM BERNERS LEE
View more presentations from IES'>http://www.slideshare.net/laslomas">IES Las Lomas.
lunes, 22 de febrero de 2010
2.6.Tres ideas alrededor de la intercreatividad:Creative Commons, Folksonomía y Colaboratorios
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjPXMiAJfeOOq0NerXFJbV_BbcJWhlRTTfwyd14qPuOqa_w0PidaksnkZhNW2IxhQZX99vUV3tOKoTv_0loyZdLf_jzRfppSOTzkB00QkyVk63ESrzgU3WWCwbhhQSDQahWgPN_m9nYigM1/s320/images.jpg)
La folksonomía
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjTYn2QlER6pps-No1wtTGAZWOaRYa9xt46NCOYBceH3jfwD2AOnnAg_4lHd1wyKkC_SzBwecP44bPgF38PqARZN6b2pFuaQD1FFkzNFB5udWi2O5ctrvaz2-3EuuwKsNtWmFrhkcIG1l7f/s320/4.jpg)
Colaboratorio
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjTPEHxvxEtRsXjtjFh-NKDZDUH5CVzpZtZHu-3TWAG53LWnwUoMd05-iPhvN7JJFzZ33OqVq1LgYPhcLpAze5LVjGIHn-BaQNA3h6homgp8UCOlCg__ZWoRJ2H3K4oo9HwGhfSYUtTe6uU/s320/2.jpg)
Creative Commons
•Creative Commons es una organización no gubernamental, sin ánimo de lucro, fundada y presidida por Lawrence Lessig, profesor de derecho en la Universidad de Stanford y especialista en ciberderechos. está inspirada en la licencia GPL (General Public License14) de la Free Software Foundation15, sin embargo, su filosofía va más allá de ser un licenciamiento de software libre. El usuario es libre de copiar, distribuir o modificar una obra incluso –en algunos casos– se autoriza hacer uso comercial de ella, pero es obligatorio que se haga referencia a su autor.
•La idea es reducir las barreras legales de la creatividad y,a su vez, posibilitar un modelo legal, ayudado de herramientas informáticas para así facilitar la distribución y el uso de contenidos para el dominio público.
•Posee entre sus metas principales la creación de un espacio que promueva, facilite y garantice el intercambio colectivo de obras y trabajos de artistas,científicos y desarrolladores de programas, como forma de promover una cultura de la libertad, basada en la confianza en intercambios creativos comunitarios.
•La folksonomía,es decir, taxonomía social u organización de la información de manera colectiva y colaborativa.Tal como se ha expuesto, el universo de aplicaciones Web 2.0, crece y evoluciona proporcionalmente a la cantidad de gente y comunidades que intercambian información y experiencias a través de la Red.
•La folksonomía permite generar datos producidos por la participación de miles de usuarios.Este sistema colaborativo usado por muchas aplicaciones en red materializa la arquitectura de la participación, así como las ideas de la inteligencia colectiva y la intercreatividad. La experiencia actual en el uso de folksonomías presente en sitios como Flickr,del.icio.us,Technorati, Amazon o El Mundo.
•Colaboratorio colectivización y distribución del conocimiento.Este concepto se popularizó gracias a Koichiro Matsuura ex director General de la UNESCO,
•al momento de presentar el Informe mundial:Hacia las sociedades del conocimiento de
•este organismo23 (Bindé, 2005).
•Surge en la integración de las palabras colaboración y laboratorio. Es un punto de encuentro abierto a académicos, investigadores, estudiantes y público en general interesado en la conformación de espacios de aprendizaje en red, flexibles y participativos.
•Al hacer uso de las tecnologías de la información y la comunicación, un colaboratorio
•permite a los científicos trabajar juntos en un mismo proyecto, aunque se hallen
•muy lejos unos de otros. Ha facilitado la aceleración de investigaciones que si se hubieran efectuado por separado habrían hecho perder un tiempo precioso
•a la comunidad científica, ocasionado duplicaciones estériles.
2.5. Arquitectura de la Participación (O’Reilly).
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhp8Zcz9Me-6UKP-dGh_68WpxPcR57Dwj7PJJaDCWm8IAqUdLVcWFbgAUFfFkg7fUM7HI9aYgBrzTiqMSSVyMQhfKG8gH3Y-HY22FKS8edISiszsifoesl0knQu9LNA5SGyMT-LpAqgn8ws/s320/images.jpg)
•O'Reilly (2005) plantea que los nuevos desarrollos de Internet (Web 2.0 particularmente) tienen su principal potencial en que facilitan la conformación de una red de colaboración entre individuos, la cual se sustenta en lo que él llama una arquitectura de la participación.
•
•La estructura tecnológica se expande de manera conjunta con las interacciones sociales de los sujetos que utilizan Internet. La idea de una arquitectura de la participación se basa en el principio de que las nuevas tecnologías potencian el intercambio y la colaboración entre los usuarios.
•El autor explica que una de las cualidades de la Web 2.0 es que provee de innumerables instrumentos de cooperación, que no sólo aceleran las interacciones sociales entre personas que se encuentran separadas por las dimensiones del tiempo y/o el espacio, sino que además su estructura reticular promueve la gestación de espacios abiertos a la colaboración y la inteligencia colectiva gracias a que muchos interactúan con muchos.
•Esta arquitectura de la participación, brinda nuevas herramientas de empowerment y, al mismo tiempo, de democratización en cuanto al intercambio del conocimiento
•“es una actitud y no precisamente una tecnología”. El poder de esta plataforma web es su capacidad para servir de intermediario a la circulación de datos proporcionados por los usuarios.
Capítulo 2. Intercreatividad y Web 2.0.La construcción de un cerebro digital planetario.
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhX4DFQOAa7yiBAnaPrn2KShrDl6Yt47q6dERO8LrdwJ_bJFTD7k1cIDymgNrzMKpzSmqPqrZRHnfwGXEutnmouBEBasNuquP552ku_ErtlFNfc_x7N4RS0tYt4kF_oiVqDH48kidap4Ejg/s320/images.jpg)
•1. Las comunidades hackers son un ejemplo de las prácticas de colectivización del saber,y el intercambio de experiencias, dinámicas fundamentales en la actual sociedad del conocimiento. En este contexto, agregar valor al intercambio de información ha pasado a ser un objetivo fundamental para el desarrollo y la expansión del conocimiento.
•2. La idea del conocimiento abierto se ejemplifica a través de los trabajos y conceptos de cinco autores: Intercreatividad (Berners-Lee); Inteligencia colectiva (Lévy); Multitudes Inteligentes (Rheingold); Sabiduría de las Multitudes (Surowiecki) y Arquitectura de la Participación (O'Reilly).
•3. Existen suficientes ejemplos que evidencian por qué el desarrollo de la Web 2.0 no es sólo tecnológico sino que principalmente de orden social. Dicho de otro modo, la Web 2.0 no inventa la colaboración entre las personas, pero sí ofrece un enorme abanico de posibilidades para facilitar el intercambio y cooperación entre individuos.
•4. La consolidación de estos espacios de intercreatividad no sólo abren la posibilidad de explorar innovadoras instancias de comunicación e intercambio, sino que además generan nuevas oportunidades de construcción social del conocimiento. La generación de estos canales de participación se consolidan, en alguna medida, como herencia de la cultura hacker de compartir el saber bajo estructuras abiertas y horizontales que promuevan la intercreatividad y la inteligencia colectiva, en beneficio de la comunidad.
•5. Este contexto colaborativo, que ha pasado de ser un experimento exitoso a una forma de trabajar en equipo y constituir comunidades en línea, favorece la conformación de redes de innovación basadas en el principio de la reciprocidad. El fundamento que soporta todas estas plataformas de interacción está centrado en la idea de mejorar, simplificar y enriquecer las formas y los canales de comunicación entre las personas.
2.4. Sabiduría de las Multitudes (Surowiecki). Cien cerebros piensan mejor que uno.
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg9mXhCEvOoeFUADFDA0UNUn9XGVkSqg5ZP831LAx_ZEhLaaGe-GSsgf4AdbQzHVhImNJ9j8kMqp2P0cjxjOdGQeZzMFv5izLwij_SAyZNECw13H_HvoJztKOVR9f40JVz5p4sUDja1KoJq/s320/(Surowiecki).+fotog.jpg)
Surowiecki. ![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiGzWwKnhL0Y-wDatyT2dcW_GqET77w4GUBZ3PHub4zviKa9cxZ_6s3Yr_aEOhqQim2j2dpdo1s0Hp_w3f7yYFOoKEltW2v4PwLw8ADw_jomcvhLePkpmqmXBD48JDWMOzjXKDrqw1J42Xf/s320/(Surowiecki)..jpg)
•Sólo dos años después del trabajo de Rheingold, Surowiecki publica el libro The Wisdom of Crowds (2004), bajo la curiosa traducción de Cien mejor que uno. En su trabajo explica de qué forma se puede lograr que grupos tomen buenas decisiones y, al mismo tiempo, describe los factores que dificultan este proceso. Diversidad e independencia, por ejemplo, son necesarias para que un grupo sea inteligente.
•Su trabajo propone cuatro condiciones fundamentales para alcanzar la suma de inteligencias:
•1. Diversidad de opiniones entre los individuos que conforman el grupo.
•2. Independencia de criterio.
•3. Cierto grado de descentralización, que permita la existencia de subgrupos dentro del colectivo.
•4. Existencia de algún mecanismo de inclusión de los juicios individuales en una decisión colectiva.
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiGzWwKnhL0Y-wDatyT2dcW_GqET77w4GUBZ3PHub4zviKa9cxZ_6s3Yr_aEOhqQim2j2dpdo1s0Hp_w3f7yYFOoKEltW2v4PwLw8ADw_jomcvhLePkpmqmXBD48JDWMOzjXKDrqw1J42Xf/s320/(Surowiecki)..jpg)
•Sólo dos años después del trabajo de Rheingold, Surowiecki publica el libro The Wisdom of Crowds (2004), bajo la curiosa traducción de Cien mejor que uno. En su trabajo explica de qué forma se puede lograr que grupos tomen buenas decisiones y, al mismo tiempo, describe los factores que dificultan este proceso. Diversidad e independencia, por ejemplo, son necesarias para que un grupo sea inteligente.
•Su trabajo propone cuatro condiciones fundamentales para alcanzar la suma de inteligencias:
•1. Diversidad de opiniones entre los individuos que conforman el grupo.
•2. Independencia de criterio.
•3. Cierto grado de descentralización, que permita la existencia de subgrupos dentro del colectivo.
•4. Existencia de algún mecanismo de inclusión de los juicios individuales en una decisión colectiva.
2.3.Multitudes Inteligentes (Rheingold).Conocimientos colectivos apoyados en la Red.
Rheingold es otro autor que ha desarrollado investigaciones en esta línea. Entre sus
publicaciones destaca:Smart Mobs:The Next Social Revolution (Multitudes Inteligentes:La
próxima revolución social. 2002). En este trabajo explica que la comunidad virtual es algo
parecido a un ecosistema de subculturas y grupos espontáneamente constituidos. Bajo
esta idea un nuevo tipo de red social se está extendiendo en los últimos tiempos dentro del
espacio cibernético al que todo el mundo puede acceder usando su teléfono, computadora
u otros dispositivos móviles, señala que esta comunidad virtual conforma una especie de ecosistema de
subculturas y grupos espontáneamente constituidos que se podrían comparar con cultivos
de microorganismos, donde cada uno es un experimento social que nadie planificó y
que sin embargo se produce.
señala que estas nuevas formas de interacción posibilitadas por las tecnologías
favorecen el intercambio de conocimiento colectivo y la construcción de un capital
social, que se genera cuando se comparten las redes sociales, la confianza, la reciprocidad,
las normas y valores para promover la colaboración y la cooperación entre las
personas
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiumtB4MvNzsozXkGt82JcC4GRex9IOwcnQASqBK-7y_KiAPeCZj_6brYmrQ75sjBJW_vJEUsIyk3VAFzJKQNBZBOH7gyxfq0Ext6J7qJSlmXrHQQ5zF9tFshbEifGeREA_iUk9aIsb1ize/s320/Rheingold.jpg)
Howard Rheingold
Nacimiento
7 de julio de 1947Phoenix, Arizona
Nacionalidad
Estadounidense
Ocupación
Critico y ensayista
Cónyuge
Judy
Padres
Geraldine y Nathan Rheingold
Howard Rheingold ( nacido el 7 de julio de 1947) es un critico y ensayista estadounidense. Está especializado en las implicaciones culturales, sociales y políticas de las nuevas tecnologías de la información, como internet y la telefonía móvil.
Rheingold es conocido por haber acuñado el termino comunidad virtual (Virtual Community). El autor se encuadra dentro de los teóricos optimistas respecto a las consecuencias sociales del desarrollo de estas comunidades, ya que ve en las comunidades virtuales un instrumento de afirmación de la democracia descentralizada, e hipotiza sobre el surgimiento de una comunidad on line global.
Otro de los términos acuñados por el autor es el de Multitudes inteligentes (SmartMobs), que se define como una forma de organización social que nace y se estructura a través de las nuevas tecnologías de la información y las comunicaciones.
Actualmente Rheingold es profesor de la Universidad de Stanford.
Nacimiento
7 de julio de 1947Phoenix, Arizona
Nacionalidad
Estadounidense
Ocupación
Critico y ensayista
Cónyuge
Judy
Padres
Geraldine y Nathan Rheingold
Howard Rheingold ( nacido el 7 de julio de 1947) es un critico y ensayista estadounidense. Está especializado en las implicaciones culturales, sociales y políticas de las nuevas tecnologías de la información, como internet y la telefonía móvil.
Rheingold es conocido por haber acuñado el termino comunidad virtual (Virtual Community). El autor se encuadra dentro de los teóricos optimistas respecto a las consecuencias sociales del desarrollo de estas comunidades, ya que ve en las comunidades virtuales un instrumento de afirmación de la democracia descentralizada, e hipotiza sobre el surgimiento de una comunidad on line global.
Otro de los términos acuñados por el autor es el de Multitudes inteligentes (SmartMobs), que se define como una forma de organización social que nace y se estructura a través de las nuevas tecnologías de la información y las comunicaciones.
Actualmente Rheingold es profesor de la Universidad de Stanford.
2.2. Inteligencia colectiva (Lévy3). Un ciberespacio que conecta inteligencias
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh9MHRytAXOCoT5X1DMvaF8XF6SfRhjbHFOQRPg8UtjFHFO89qW8bsxhE8e9LzFS8Tt0Jd-G6ewU-TVG7I-Z0E1hDuHIYtjz-E2pCqx8sQsxgkUkmMXnL6Z0lvChciZXYlX6eG-zEV2e9YE/s320/PIERRE+LEVY.jpg)
¿QUE ES LA INGELIGENCIA COLECTIVA?
Se trata de uno de los conceptos más célebres trabajados por el destacado filósofo Pierre Lévy. Explicado de manera muy burda, la inteligencia Colectiva (IC) parte de que nadie lo sabe todo, y que todos sabemos, aunque sea un poco, sobre algo. La IC se construye entonces, cuando un conjunto de personas deciden aportar sus saberes, de manera libre y voluntaria, para la construcción de un conocimiento socialmente significativo, y que de esta manera trascienda las limitaciones individuales.
En el contexto de la comunicación y las innovaciones tecnológicas, el concepto de la IC ha adquirido una especial importancia para los interesados en la cibercultura. Es en buena medida gracias a los entornos virtuales y el ciberespacio, que la IC encuentra espacios para florecer. Si se piensa, por ejemplo, en las bases de conocimiento presentes en algunos grupos de discusión, como Usenet, donde la experiencia de cientos y hasta miles de usuarios se acumula en torno a los más variados temas, se puede reconocer esta construcción de conocimiento de la que Lévy hablaba. La Wikipedia, enciclopedia de acceso libre, hecha y depurada gracias a las aportaciones de usuarios de todo el mundo en cerca de medio centenar de lenguas, es otro ejemplo de la IC.
Sin embargo, tal vez el caso más citado de la cristalización de la IC en un producto concreto, es el software libre. Construido a partir del trabajo voluntario de una gran cantidad de programadores, usuarios y patrocinadores; este modelo se fundamenta en el reconocimiento simbólico para sus participantes, quienes esperan beneficiar a la comunidad y beneficiarse ellos mismos gracias al trabajo libre y coordinado de esta misma comunidad. El sistema operativo Linux y la suite de aplicaciones Open Office son algunos de los ejemplos más conocidos de este movimiento global.
Se trata de uno de los conceptos más célebres trabajados por el destacado filósofo Pierre Lévy. Explicado de manera muy burda, la inteligencia Colectiva (IC) parte de que nadie lo sabe todo, y que todos sabemos, aunque sea un poco, sobre algo. La IC se construye entonces, cuando un conjunto de personas deciden aportar sus saberes, de manera libre y voluntaria, para la construcción de un conocimiento socialmente significativo, y que de esta manera trascienda las limitaciones individuales.
En el contexto de la comunicación y las innovaciones tecnológicas, el concepto de la IC ha adquirido una especial importancia para los interesados en la cibercultura. Es en buena medida gracias a los entornos virtuales y el ciberespacio, que la IC encuentra espacios para florecer. Si se piensa, por ejemplo, en las bases de conocimiento presentes en algunos grupos de discusión, como Usenet, donde la experiencia de cientos y hasta miles de usuarios se acumula en torno a los más variados temas, se puede reconocer esta construcción de conocimiento de la que Lévy hablaba. La Wikipedia, enciclopedia de acceso libre, hecha y depurada gracias a las aportaciones de usuarios de todo el mundo en cerca de medio centenar de lenguas, es otro ejemplo de la IC.
Sin embargo, tal vez el caso más citado de la cristalización de la IC en un producto concreto, es el software libre. Construido a partir del trabajo voluntario de una gran cantidad de programadores, usuarios y patrocinadores; este modelo se fundamenta en el reconocimiento simbólico para sus participantes, quienes esperan beneficiar a la comunidad y beneficiarse ellos mismos gracias al trabajo libre y coordinado de esta misma comunidad. El sistema operativo Linux y la suite de aplicaciones Open Office son algunos de los ejemplos más conocidos de este movimiento global.
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiHaF8_kvpfvPyBDyj9Ep7p44K-zpnsJCW-6NQMuRcgDqnC4HFYAIQiiKpei7bf0GVdpgU5coZWH51aNCo_T5sPB0b726HuMZTn-R_rCaPhHr-OVGoQgral9nQFi-DzxpGZD0QdVMSJeT2L/s320/BARNERS-LEE.jpg)
Tim Berners-Lee en abril de 2009.
Nacimiento
8 de junio de 1955 , (54 años)Londres, Reino Unido
Nacionalidad
Inglés
Ocupación
Informático teórico
Cónyuge
Nancy Carlson
Hijos
2
Padres
Conway Berners-Lee y Mary Lee Woods
Tim Berners-Lee
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Tim Berners-Lee
Tim Berners-Lee en abril de 2009.
Nacimiento 8 de junio de 1955 , (54 años)
Londres, Reino Unido
Nacionalidad Inglés
Ocupación Informático teórico
Cónyuge Nancy Carlson
Hijos 2
Padres Conway Berners-Lee y Mary Lee Woods
Sir Timothy "Tim" John Berners-Lee, OM, KBE (TimBL o TBL) nació el 8 de junio de 1955 en Londres, Reino Unido, se licenció en Física en 1976 en el Queen's College de la Universidad de Oxford. Es considerado como el padre de la web.
Ante la necesidad de distribuir e intercambiar información acerca de sus investigaciones de una manera más efectiva, Tim desarrolló las ideas que forman parte de la web. Él y su grupo crearon lo que por sus siglas en inglés se denomina: Lenguaje HTML (HyperText Markup Language) o lenguaje de etiquetas de hipertexto; el protocolo HTTP (HyperText Transfer Protocol), y el sistema de localización de objetos en la web URL (Uniform Resource Locator).
Es posible encontrar muchas de las ideas plasmadas por Berners-Lee en el proyecto Xanadu (que propuso Ted Nelson) y el memex
2.1 INTERCREATIVIDAD (BARNERS-LEE). INTERCAMBIOS CREATIVOS DIGITALES
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhNCnGL4T33rJb-JXV0q_YQSig9euh9hbk9Lw_xw9_obOsl9K57CtqfoTQ4r3lJ9uOlr__0J23hEd0KKyV41NVtCZdEkbTixkr4sY-XX8uIKeP3R4T_8oyEWC0MLNoGOPTxexBGdjiCtWQV/s320/BARNERS-LEE.jpg)
EXPLICA QUE LA NOCION DE INTERCREATIVIDAD NO HACE SOLAMENTE REFERENCIA AL ACTO INTERACTIVO SINO QUE DESCRIBE EL VALOR SUSTANTIVO QUE OFRECE LA EVOLUCION DE INTERNET Y TU POTENCIAL SOCIAL, A TRAVES DE LA CONSOLIDACION DE REDES DE GESTION DEL CONOCIMIENTO.
FUE ESTE MISMO FUNDAMENTO EL QUE LO IMPULSO A CREAR LA WWW.
viernes, 19 de febrero de 2010
Suscribirse a:
Entradas (Atom)