viernes, 21 de marzo de 2008

Microprocesadores, Memorias y Tarjetas de video...

INTRODUCCIÓN

Desde el principio de los tiempos el hombre ha trabajado insaciablemente por buscar algo mucho más allá de lo que podía percibir como verdad, quería saber, conocer, explicar lo que le rodeaba y no comprendía. Mientras más largos y complicados eran los obstáculos que se le presentaban en su investigación, se vio en la necesidad idear, imaginar y aplicar las herramientas concebidas por su propio intelecto para alcanzar sus objetivos, mejorar su calidad de vida y asegurar su supervivencia por sobre las otras especies. En este afán de creación y evolución constante, y en una búsqueda de simplificar procesos cada vez más complejos o repetitivos, se crearon las computadoras: una colección de circuitos integrados y otros componentes que puede ejecutar con exactitud y sorprendente rapidez, una múltiple variedad de rutinas de instrucciones para realizar una amplia gama de aplicaciones prácticas determinadas. Millones y millones de ideas que han florecido como inventos, tendencias, concepciones científicas, leyes universales, se deben hoy gracias a las computadoras y sus capacidades, que desde su concepción han revolucionado el panorama científico, sin limitarse solamente a eso, sino en el ámbito social igualmente, de la mano de inventos como la Internet, ha cambiando las formas en que podemos relacionarnos y conocernos en esta era donde está en cambio constante la tecnología de la información y la comunicación.
En el estudio de la estructura y desempeño de los diferentes módulos funcionales de la computadora y cómo interactúan para atender a las necesidades de procesamiento del usuario se enmarca la arquitectura de computadoras. Tomando como punto de partida esta visión realizaremos un enfoque sistemático de tres de los componentes más importantes de una computadora como lo son: el tipo de memoria que utiliza, su tarjeta de video, y el núcleo de un sistema de cómputo, el microprocesador. Abarcaremos únicamente aquellos componentes o tecnologías que resultaron más importantes en su tiempo o que marcaron un hito, ya que resultaría muy difícil sino imposible, realizar un recuento de todos los tipos de tecnologías u variaciones que han aparecido a lo largo de los años o que están por aparecer, y de los cuáles, nos interesa hablar únicamente de aquellos componentes que representaron un cambio positivo en el avance de las computadoras, y que han proporcionado y seguirán proporcionando, el conjunto de herramientas que le brindaran al hombre las capacidades para expandir sus horizontes en su búsqueda constante de información.
1. PROCESADORES A TRAVÉS DE LA HISTORIA
1.1. Procesador 4004.

El 4004 fue lanzado en un paquete de 16 pines CERDIP el 15 de noviembre de 1971. El 4004 fue el primer procesador de computadora diseñado y fabricado por el fabricante de chips Intel, quien previamente hacía semiconductores de chips de memoria. Marcian "Ted" Hoff formuló la propuesta arquitectónica en 1969. Sin embargo, la implementación del microprocesador sólo comenzó en 1970 cuando Federico Faggin fue empleado por Intel, procedente de Fairchild Semiconductor, para dirigir el proyecto y para diseñar el 4004. En Fairchild, Faggin había desarrolado la tecnología pionera llamada Silicon Gate Technology (SGT) y había también diseñado el primer circuito integrado MOS usando la tecnología SGT (el Fairchild 3708) en 1968. Tan pronto como empezó a trabajar para Intel, Faggin creó una nueva metodología de "random logic design" con silicon gate, que no existía previamente, y que la utlilizó para encajar el microprocesador en un único chip. Su metodología fue usada en todos los primeros diseños de microprocesadores de Intel (8008, 4040, 8080). Masatoshi Shima de Busicom asistió a Faggin durante el desarrollo de la familia 4004 y más tarde escribió el software para la calculadora Busicom. Shima se unió a la compañía ZiLOG, la primera compañía dedicada exclusivamente a microprocesadores, fundada por Federico Faggin a finales del 1974, y desarrolló el diseño del Z80 con Faggin.
Originalmente diseñado para la compañía japonesa Busicom para ser usado en su línea de calculadoras, el 4004 también fue proporcionado con una familia de chips de soporte especialmente diseñados para él. Por ejemplo, cada "ROM de programa" internamente guardaba para su propio uso los 12 bit de dirección de programa del 4004, lo que permitía, si las 16 ROM fueron instaladas, acceso de 4 KB de memoria desde el bus de direcciones de 4 bits. El circuito 4004 fue construido con 2.300 transistores, y fue seguido el año siguiente por el primer microprocesador de 8 bits, el 8008, que contenía 3.300 transistores, y el 4040, que era una versión revisada del 4004.
Como su cuarta entrada en el mercado de microprocesadores, Intel lanzó el CPU que comenzó la revolución del microcomputador, el 8080, usado en el Altair 880.

1.2. Procesador 4040.
El Intel 4040 fue el sucesor del Intel 4004. Fue lanzado al mercado en 1974. Diseñado por Federico Faggin (quien propuso la arquitectura y condujo el proyecto) y Tom Innes.
El 4040 fue usado primariamente en juegos, pruebas, desarrollo, y equipos del control. El paquete del 4040 era más de dos veces el ancho del 4004 y tenía 24 pines en lugar de los 16 del 4004. El 4040 agregó 14 instrucciones, un espacio más grande para el stack (7 niveles en vez de 3), un espacio para programas de 8KB, 8 registros adicionales, y habilidades de interrupción (incluyendo sombras (shadows) de los primeros 8 registros.

1.3. Procesador 8008.
El Intel 8008 (i8008) es un microprocesador diseñado y fabricado por Intel que fue lanzado al mercado en abril de 1972. Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con las expectativas de Computer Terminal Corporation, finalmente no fue usado en el Datapoint 2200. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes.
El conjunto de instrucciones del i8008 y de todos los procesadores posteriores de Intel está fuertemente basado en las especificaciones de diseño de Computer Terminal Corporation.
El i8008 emplea direcciones de 14 bits, pudiendo direccionar hasta 16 KB de memoria. El circuito integrado del i8008, limitado por las 18 patillas de su encapsulado DIP, tiene un bus compartido de datos y direcciones de 8 bits, por lo que necesita una gran cantidad de circuitería externa para poder ser utilizado. El i8008 puede acceder a 8 puertos de entrada y 24 de salida.
Aunque un poco más lento que los microprocesadores Intel 4004 e Intel 4040 de 4 bits en cuanto a la cantidad de millones de instrucciones por segundo ejecutadas, el hecho de que el i8008 procesara 8 bits de datos al tiempo y de que pudiera acceder a mucha más memoria hacen que el i8008 sea en la práctica unas tres o cuatro veces más rápido que sus predecesores de 4 bits.
El i8008 era un diseño aceptable para utilizarlo como el controlador de un terminal, pero no para el resto de tareas, por lo que pocos ordenadores se basaron en él. La mayoría de los ordenadores de la época emplearon el mejorado Intel 8080.

1.4. Procesador 8080.
El Intel 8080 fue un microprocesador temprano diseñado y fabricado por Intel. El CPU de 8 bits fue lanzado en abril de 1974. Corría a 2 MHz, y generalmente se le considera el primer diseño de CPU microprocesador verdaderamente usable.

1.5. Procesador 8085.
El Intel 8085 es un procesador de 8 bits fabricado por Intel a mediados de los 70. Era binariamente compatible con el anterior Intel 8080 pero exigía menos soporte de hardware, así permitía unos sistemas de microordenadores más simples y más baratos de hacer.

1.6. Procesadores 8086 y 8088.
Los Intel 8086 e Intel 8088 (i8086, llamado oficialmente iAPX 86, e i8088) son dos microprocesadores de 16 bits diseñados por Intel en 1978, iniciadores de la arquitectura x86. La diferencia entre el i8086 y el i8088 es que este último utiliza un bus externo de 8 bits, para poder emplear circuitos de soporte al microprocesador más económicos, en contraposición al bus de 16 bits del i8086.

1.7. Procesadores 80186 y 80188.
Los Intel 80186 y 80188 (i80186 e i81088) son dos microprocesadores que fueron desarrollados por Intel alrededor de 1982. Los i80186 e i80188 son una mejora del Intel 8086 y del Intel 8088 respectivamente. Al igual que el i8086, el i80186 tiene un bus externo de 16 bits, mientras que el i80188 lo tiene de 8 bits como el i8088, para hacerlo más económico. La velocidad de reloj del i80186 e i80188 es de 6 MHz.

1.8. Procesador 80286.
El Intel 80286 (llamado oficialmente iAPX 286, también conocido como i286 o 286) es un microprocesador de 16 bits de la familia x86, que fue lanzado al mercado por Intel el 1 de febrero de 1982. Las versiones iniciales del i286 funcionaban a 6 y 8 MHz, pero acabó alcanzando una velocidad de hasta 25 MHz. El i286 fue el microprocesador más empleado en los IBM PC y compatibles entre mediados y finales de los años ochenta.

1.9. Procesador IAPX 432.
El Intel iAPX 432 fue el primer diseño de microprocesador de 32 bits de Intel, introducido en 1981 como un conjunto de tres circuitos integrados. El iAPX 432 fue pensado para ser el principal diseño de Intel para los años 1980, implementando muchas características avanzadas de multitarea y manejo de memoria en hardware, que los condujo a referirse al diseño como el Micromainframe.
El soporte para estructuras de datos del procesador permitía implementar los sistemas operativos modernos usando mucho menos código de programa que otros CPUs ordinarios, el 432 haría, internamente en hardware, mucho del trabajo. Sin embargo, el diseño era extremadamente complejo comparado a los microprocesadores de consumo masivo de ese tiempo, tanto, que los ingenieros de Intel no pudieron traducir el diseño en una implementación eficiente usando la tecnología de semiconductores de la época. El CPU resultante fue muy lento y costoso, y así, los planes de Intel para sustituir la arquitectura x86 por el iAPX 432 terminaron miserablemente.

1.10. Procesador 80960.
El Intel i960 (también llamado 80960) era un diseño de microprocesador basado en RISC que llegó a ser absolutamente popular durante los principios de los años 1990 como microcontrolador embebido, fue por algún tiempo probablemente el CPU mejor vendido en ese campo, empujando al AMD 29000 de ese lugar. A pesar de su éxito, a finales de los años 1990, Intel formalmente abandonó la comercialización del i960 como efecto secundario de un pleito con DEC, en el cual Intel recibió los derechos de producir el CPU StrongARM.

1.11. Procesador 80860.
El Intel i860 (también conocido como el 80860, y nombre código N10) era un microprocesador RISC de Intel, lanzado en 1989. El i860 fue, junto con el i960, uno de los primeros intentos de una Arquitectura de Conjunto de Instrucciones (Instruction Set Architecture, ISA) completamente nueva y de alto nivel desde el fallido Intel i432 de los años 1980. Fue lanzado con considerable fanfarria, y oscureció el lanzamiento del Intel i960 que muchos consideraban era un mejor diseño. El i860 nunca alcanzó éxito comercial y el proyecto fue terminado a mediados de los años 1990. El chip fue usado en subsistemas gráficos de alto nivel como la tarjeta de expansión "NeXT Dimension" para el NeXT Cube.

1.12. Procesador XScale.
El Intel XScale es un núcleo de microprocesador, la implementación de Intel de la quinta generación de la arquitectura ARM. La tecnología ha sido vendida a Marvell Technology Group en junio de 2006.
Está basado en el ISA v5TE sin las instrucciones de coma flotante. El XScale usa un entero de 7 niveles y 8 niveles de memoria Superpipeline de arquitectura RISC. Es el sucesor de la línea de microprocesadores y microcontroladores Intel StrongARM, que Intel adquirió de la división de Semiconductores Digitales de DEC como efecto colateral de un pleito entre las dos compañías. Intel usó el StrongARM para substituir su propia línea de anticuados procesadores RISC, el i860 y el i960.
Todas las generaciones del XScale son procesadores ARM v5TE de 32-bits fabricados con un proceso de 0.18 µm y tiene 32 KiB de cache de datos y 32 KiB de caché de instrucciones (esto es llamado una caché de Nivel 1 de 64 KiB en otros procesadores). También tienen todos una caché de mini-datos de 2 KiB.

1.13. Procesador 80386.
El Intel 80386 (i386, 386) es un microprocesador CISC con arquitectura x86. Durante su diseño se le llamó 'P3', debido a que era el prototipo de la tercera generación x86. El i386 fue empleado como la unidad central de proceso de muchos ordenadores personales desde mediados de los años 80 hasta principios de los 90.
Fabricado y diseñado por Intel, el procesador i386 fue lanzado al mercado el 16 de octubre de 1985. Intel estuvo en contra de fabricarlo antes de esa fecha debido a que los costes de producción lo hubieran hecho poco rentable. Los primeros procesadores fueron enviados a los clientes en 1986. Del mismo modo, las placas base para ordenadores basados en el i386 eran al principio muy elaboradas y caras, pero con el tiempo su diseño se racionalizó.
En Mayo de 2006 Intel anunció que la fabricación del 386 finalizaría en a finales de Septiembre de 2007.Aunque ha quedado obsoleto como CPU de ordenador personal, Intel ha seguido fabricando el chip para sistemas empotrados y tecnología aeroespacial.

1.14. Procesador 80486.
Los Intel 80486 (i486, 486) son una familia de microprocesadores de 32 bits con arquitectura x86 diseñados por Intel.
Los i486 son muy similares a sus predecesores, los Intel 80386. La diferencias principales son que los i486 tienen un conjunto de instrucciones optimizado, una unidad de coma flotante y un caché unificado integrados en el propio circuito integrado del microprocesador y una unidad de interfaz de bus mejorada. Estas mejoras hacen que los i486 sean el doble de rápidos que un i386 a la misma velocidad de reloj. De todos modos, algunos i486 de gama baja son más lentos que los i386 más rápidos.
La velocidades de reloj típicas para los i486 eran 16 MHz (no muy frecuente), 20 MHz (tampoco frecuente), 25 MHz, 33 MHz, 40 MHz, 50 MHz (típicamente con duplicación del reloj), 66 MHz (con duplicación del reloj), 75 MHz (con triplicación del reloj), 100 MHz (también con triplicación del reloj) y 120 MHz (con cuatriplicación de reloj en una variante de AMD, el Am486-DX5).





1.15. Procesador Pentium.
Los Intel Pentium son una gama de microprocesadores con arquitectura x86 producidos por la compañía Intel.
El microprocesador Pentium se lanzó al mercado el 22 de marzo de 1993, sucediendo al procesador Intel 80486. Intel no lo llamó 586 debido a que no es posible registrar una marca compuesta solamente de números y a que la competencia utilizaba hasta ahora los mismos números que Intel para sus procesadores equivalentes (AMD 486, IBM 486...). También es conocido por su nombre clave P54C.
Se descubrió en 1994, en el Intel Pentium, que algunos Pentium presentaron un error de división.

1.16. Procesador Pentium Pro.
El Pentium Pro es la sexta generación de arquitectura x86 de los microprocesadores de Intel, cuya meta era remplazar al Intel Pentium en toda la gama de aplicaciones, pero luego se centró como chip en el mundo de los servidores y equipos de sobremesa de gama alta. Posteriormente Intel lo dejó de lado a favor de su gama de procesadores de altas prestaciones llamada Xeon.
Fue puesto a la venta en noviembre de 1995. En su lanzamiento usaba un enorme Socket 8 de forma rectangular.





1.17. Procesador Pentium II.
El Pentium II es un microprocesador con arquitectura x86 diseñado por Intel, introducido en el mercado el 7 de mayo de 1997. Está basado en una versión modificada del núcleo P6, usado por primera vez en el Intel Pentium Pro.
Los cambios fundamentales respecto a éste último fueron mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste.
El Pentium II se comercializó en versiones que funcionaban a una frecuencia de reloj de entre 166 y 450 MHz. La velocidad de bus era originalmente de 66 MHz, pero en las versiones a partir de los 333 MHz se aumentó a 100 MHz.
Poseía 32 KB de memoria caché de primer nivel repartida en 16 KB para datos y otros 16 KB para instrucciones. La caché de segundo nivel era de 512 KB y trabajaba a la mitad de la frecuencia del procesador, al contrario que en el Pentium Pro, que funcionaba a la misma frecuencia.
Como novedad respecto al resto de procesadores de la época, el Pentium II se presentaba en un encapsulado SEC, con forma de cartucho. El cambio de formato de encapsulado se hizo para mejorar la disipación de calor. Este cartucho se conecta a las placas base de los equipos mediante una ranura Slot 1.

1.18. Procesador Pentium III.
El Pentium III es un microprocesador de arquitectura i686 fabricado por Intel; el cual es una modificación del Pentium Pro. Fue lanzado el 26 de febrero de 1999.
Las primeras versiones eran muy similares al Pentium II, siendo la diferencia más importante la introducción de las instrucciones SSE. Al igual que con el Pentium II, existía una versión Celeron de bajo presupuesto y una versión Xeon para quienes necesitaban de gran poder de cómputo. Esta línea ha sido eventualmente reemplazada por el Pentium 4, aunque la línea Pentium M, para equipos portátiles, esta basada en el Pentium III.

1.19. Procesador Pentium 4.
El Pentium 4 (erróneamente escrito Pentium IV) es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Pentium Pro de 1995. El Pentium 4 original, denominado Willamette, trabajaba a 1,4 y 1,5 GHz; y fue lanzado en noviembre de 2000.
Para la sorpresa de la industria informática, el Pentium 4 no mejoró el viejo diseño P6 según las dos tradicionales formas para medir el rendimiento: velocidad en el proceso de enteros u operaciones de coma flotante. La estrategia de Intel fue sacrificar el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE. Al igual que los demás procesadores de Intel, el Pentium 4 se comercializa en una versión para equipos de bajo presupuesto (Celeron), y una orientada a servidores de gama alta (Xeon).

1.20. Procesador Pentium M.
Introducido en marzo de 2003, el Intel Pentium M es un microprocesador con arquitectura x86 (i686) diseñado y fabricado por Intel. El procesador fue originalmente diseñado para su uso en computadoras portátiles. Su nombre en clave antes de su introducción era "Banias". Todos los nombres clave del Pentium M son lugares de Israel, la ubicación del equipo de diseño del Pentium M.
.
1.21. Procesador Core Duo.
Es un microprocesador lanzado en enero del 2006 por Intel con dos núcleos de ejecución, optimizado para las aplicaciones de subprocesos múltiples y para la multitarea. Puede ejecutar varias aplicaciones exigentes simultáneamente, como juegos con gráficos potentes o programas que requieran muchos cálculos, al mismo tiempo que puede descargar música o analizar su PC con su antivirus en segundo plano.
Cabe decir que un modelo anterior a Core Duo y posterior a los Pentium D es el 'Dual Core Inside' que es un Core Duo pero le fue puesto ese nombre (Dual Core inside). Es un procesador con dos nucleos de ejecucion que a diferencia de los Pentium D sus nucleos no son virtuales y se diferencia de los Core Duo por que su caché es de solo 1 mb con un bus frontal de 800 Mhz, mayor al Core Duo. Estos procesadores estan orientados para su uso en equipos portatiles aunque de igual forma hay versiones para computadoras de escritorio. Este procesador funciona a velocidades de 1.8 ghz y 1.6 ghz, siendo este un procesador bastante mas rapido que los Core 2 Duo, pero hasta ahora es desconocido por gran parte de las personas.
Este microprocesador implementa 2Mb de caché compartida para ambos núcleos más un bus frontal de 667Mhz; además implementa un nuevo juego de instrucciones para multimedia (SSE3) y mejoras para las SSE y SSE2. Sin embargo, el desempeño con enteros es ligeramente inferior debido a su caché con mayor latencia. También incluye soporte para la tecnología Bit NX.





1.22. Procesador Core 2 Duo.
El Core 2 Duo es un procesador con un pipeline de 14 etapas lo que le permite escalar más en frecuencia que su antecesor directo: el Core 1, que tenía 12 etapas al igual que el Athlon 64. Tiene, además, un motor de ejecución ancho con tres ALUs, cuatro FPUs, y tres unidades de SSE de 128 bits. Estas dos características hacen que sea el procesador x86 que más instrucciones por ciclo puede lograr.
Entre otras características destacan arquitectura de 64 bits EM64T (no disponible en su predecesor Core Duo), Virtualization Technology, LaGrande Technology, Intel Enhanced SpeedStep Technology, Active Management Technology (iAMT2), MMX, SSE, SSE2, SSE3, SSSE3, y XD bit.
Existen versiones de sobremesa y para portátiles, a diferencia de la división existente desde 2003 entre Pentium M para portátiles y Pentium 4 para ordenadores de sobremesa, unificando el nombre de Core 2 Duo para todas los procesadores de gama media dejando además el nombre Pentium, utilizado desde 1993, para los procesadores de gama baja (y menor rendimiento) basados en la arquitectura de Core 2 con un caché reducido llamado Pentium Dual Core, quienes a su vez vienen a reemplazar a la familia Celeron en este rol.
Una llamativa característica de esta familia es su particular facilidad para aplicar overclock, llegando muchos de estos procesadores a ganancias superiores al 50% en su frecuencia de trabajo.




1.23. Procesador Core 2 Quad
Son una serie de procesadores de Intel con 4 núcleos y de 64 bits. Según el fabricante, estos procesadores son un 70% más rápido que los Core 2 Duo. Actualmente en producción (desde 2007). Utiliza el conjunto de instrucciones EM64T. Posee, al igual que en procesadores anteriores, la capacidad de overclock, lo que aumenta su rendimiento.
Intel tiene en mente lanzar los procesadores de 4 núcleos para portátiles en el primer semestre de 2008, con el nombre de "Penryn" y será una actualización de los denominados Intel Santa Rosa que se utilizan actualmente.


A continuación, a modo de resumen, les presentamos una tabla con las características mas sobresalientes en la rápida evolución de los procesadores.

Tabla de característica de procesadores Intel
Modelo Bus de datos(bits) Nº de Transistores Año Velocidad
4004 4 2300 1971 740 kHz
8008 8 3500 1972 500kHz
4040 4 3000 1974 500 a 740 kHz
8080 8 6000 1974 2 MHz
8085 8 6500 1976 5 MHz
8086 16 29000 1978 5 a 10 MHz
8088 8 29000 1979 4.77 a 9 MHz
80186 16 ? 1982 6 a 12 MHz
80188 8 ? 1982 8 a 10 MHz
80286 16 134000 1982 - 1986 6 a 25 MHz
IAPX 432 32 ? 1981 5,7 o 8 MHz
80960 32 ? 1988 10 a 100 MHz
80860 32 ? 1989 25 a 50 MHz
80386DX 32 275000 86 a 07 16 a 40 Mhz
80386SX 16 275000 1988 16,20 o 33 MHz
80386SL 16 855,000 1990 20 a 25 MHz
80486DX 32 1.2 millones 1989 25,33 a 50 MHz
Pentium 64 3.1 millones 1993 60 a 300 MHz
Pentium Pro 64 5.5 millones 1995 166 a 200 MHz
Pentium II 64 7.5 millones 1997 233 a 450 MHz
Pentium III 64 28 millones 2001 450MHz a 1.4GHz
Pentium 4 64 55 millones 2000 1.3 a 3.8 GHz
Pentium M 32 140 millones 2003 900 MHz a 2.2GHz
Core Duo 32 151 millones 2006 1.06 a 2.3 GHz
Core 2 32 400 millones 2006 1.6 a 3.16 GHz
Core 2 Quad 64 2 x 291millones 2007 2.4 a 2.6 GHz


2. TIPOS DE MEMORIA
2.1. Tarjeta Perforada.
La tarjeta perforada es una cartulina con unas determinaciones que pueden o no estar perforadas, lo que supone un código binario. Fueron los primeros medios que servian para para ingresar información e instrucciones a un computador en los años 1960 y 1970. Fueron inventadas por Herman Hollerith (1860-1929) en 1889. En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas pudieran adaptarse de manera que proporcionaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunas personas consideran a Lady Lovelace la primera programadora. Posteriormente cayeron en desuso al ser reemplazadas por medios magnéticos y ópticos de ingreso información.

2.2. Memorias Magnéticas.
Las memorias magnéticas usan diferentes patrones de magnetización sobre una superficie cubierta con una capa magnetizada para almacenar información. Las memorias magnéticas son no volátiles. Se llega a la información usando uno o más cabezales de lectura/escritura. Como el cabezal de lectura/escritura solo cubre una parte de la superficie, el almacenamiento magnético es de acceso secuencial y debe buscar, dar vueltas o las dos cosas. En computadoras modernas, la superficie magnética será de alguno de estos tipos:
* Disco magnético
* Disquete, usado para memoria fuera de línea
* Disco duro, usado para memoria secundario
* Cinta magnética, usada para memoria terciaria y fuera de línea.
En las primeras computadoras, el almacenamiento magnético se usaba también como memoria principal en forma de memoria de tambor, memoria de núcleo, memoria en hilera de núcleo, memoria película delgada, memoria de Twistor o memoria burbuja. Además, a diferencia de hoy, las cintas magnéticas se solían usar como memoria secundaria.
2.3. Memoria de semiconductor.
La memoria de semiconductor usa circuitos integrados basados en semiconductores para almacenar información. Un chip de memoria de semiconductor puede contener millones de minúsculos transistores o condensadores. Existen memorias de semiconductor de ambos tipos: volátiles y no volátiles. En las computadoras modernas, la memoria principal consiste casi exclusivamente en memoria de semiconductor volátil y dinámica, también conocida como memoria dinámica de acceso aleatorio. Con el cambio de siglo, ha habido un crecimiento constante en el uso de un nuevo tipo de memoria de semiconductor no volátil llamado memoria flash. Dicho crecimiento se ha dado, principalmente en el campo de las memorias fuera de línea en computadoras domésticas. Las memorias de semiconductor no volátiles se están usando también como memorias secundarias en varios dispositivos de electrónica avanzada y computadoras especializadas.

2.4. Memorias de disco óptico.
Las memorias en disco óptico almacenan información usando agujeros minúsculos grabados con un láser en la superficie de un disco circular. La información se lee iluminando la superficie con un diodo laser y observando la reflexión. Los discos ópticos son no volátiles y de acceso secuencial. Los siguientes formatos son de uso común:
• CD, CD-ROM, DVD: Memorias de simplemente solo lectura, usada par distribución masiva de información digital (música, vídeo, programas informáticos).
• CD-R, DVD-R, DVD+R: Memorias de escritura única usada como memoria terciaria y fuera de línea.
• CD-RW, DVD-RW, DVD+RW, DVD-RAM: Memoria de escritura lenta y lectura rápida usada como memoria terciaria y fuera de línea.
• Blu-ray
• HD-DVD

Se han propuesto los siguientes formatos:
• HVD
• Discos cambio de fase Dual

2.5. Memorias de discos magneto ópticos.
Las Memorias de disco magneto óptico son un disco de memoria óptica donde la información se almacena en el estado magnético de una superficie ferromagnética. La información se lee ópticamente y se escribe combinando métodos magnéticos y ópticos. Las memorias de discos magneto ópticos son de tipo no volátil, de acceso secuencial, de escritura lenta y lectura rápida. Se usa como memoria terciaria y fuera de línea.

2.6. Otras memorias propuestas.
La memoria de cambio de fase usa las fases de un material de cambio de fase para almacenar información. Dicha información se lee observando la resistencia eléctrica variable del material. La memoria de cambio de fase sería una memoria de lectura/escritura no volátil, de acceso aleatorio podría ser usada como memoria primaria, secundaria y fuera de línea. La memoria holográfica almacena ópticamente la información dentro de cristales o fotopolímeros. Las memorias holográficas pueden utilizar todo el volumen del medio de almacenamiento, a diferencia de las memorias de discos ópticos, que están limitadas a un pequeño número de superficies en capas. La memoria holográfica podría ser no volátil, de acceso secuencial y tanto de escritura única como de lectura/escritura. Puede ser usada tanto como memoria secundaria como fuera de línea.
La memoria molecular almacena la información en polímeros que pueden almacenar puntas de carga eléctrica. La memoria molecular puede ser especialmente interesante como memoria principal.

2.7. ROM con máscara
Se graba mediante el uso de máscaras. Sólo es recomendable para series muy grandes debido a su elevado coste. Se caracteriza porque la información contenida en su interior se almacena durante su construcción y no se puede alterar. Son memorias ideales para almacenar microprogramas, sistemas operativos, tablas de conversión y caracteres.

2.8. EPROM.
Se graba eléctricamente con un programador controlador por un PC. Disponen de una ventana en la parte superior para someterla a luz ultravioleta, lo que permite su borrado. Puede usarse en fase de diseño, aunque su coste unitario es elevado.

2.9. OTP.
Su proceso de grabación es similar al anterior, pero éstas no pueden borrarse. Su bajo coste las hacen idóneas para productos finales.

2.10. EEPROM.
También se graba eléctricamente, pero su borrado es mucho más sencillo, ya que también es eléctrico. No se pueden conseguir grandes capacidades y su tiempo de de escritura y su consumo es elevado. Este tipo de memoria es relativamente lenta.

2.11. FLASH.
Posee las mismas características que la EEPROM, pero ésta tiene menor consumo de energía y mayor capacidad de almacenamiento, por ello está sustituyendo a la memoria EEPROM. Se trata de una memoria no volátil, de bajo consumo. Son recomendables en aplicaciones en las que es necesario modificar el programa a lo largo de la vida del producto.

2.12. Memoria RAM.
Tipos básicos de memoria RAM:
Es posible obtener memorias semiconductoras en una amplia gama de velocidades. Sus tiempos de ciclo varían desde unos cuantos cientos de nanosegundos, hasta unas cuantas decenas de nanosegundos. Cuando se presentaron por primera vez, a fines de la década de 1960, eran mucho más costosas que las memorias de núcleo magnético que reemplazaron. Debido a los avances de la tecnología de VLSI (Very Large Scale Integration – integración a muy gran escala), el costo de las memorias semiconductoras ha descendido en forma notable.
Existen dos tipos de memoria RAM: la SRAM o RAM estática; y la DRAM o RAM dinámica.

2.12.1. RAM estática o SRAM:
El almacenamiento en RAM estática se basa en circuitos lógicos denominados flip-flop, que retienen la información almacenada en ellos mientras haya energía suficiente para hacer funcionar el dispositivo (ya sean segundos, minutos, horas, o aún días). Un chip de RAM estática puede almacenar tan sólo una cuarta parte de la información que puede almacenar un chip de RAM dinámica de la misma complejidad, pero la RAM estática no requiere ser actualizada y es normalmente mucho más rápida que la RAM dinámica (el tiempo de ciclo de la SRAM es de 8 a 16 veces más rápido que las SRAM). También es más cara, por lo que se reserva generalmente para su uso en la memoria de acceso aleatorio (caché).

Tipos de RAM estática:
a) SRAM (Static Random Access Memory):
Memoria estática de acceso aleatorio. Es un tipo de memoria más rápida y confiable que la DRAM. El término estática se debe a que necesita ser refrescada menos veces que la DRAM. Tienen un tiempo de acceso del orden de 10 a 30 nanosegundos. Un bit de RAM estática se construye con un circuito flip-flop que permite que la corriente fluya de un lado a otro basándose en cual de los dos transistores es activado. Estas memorias no precisan no precisan de los complejos circuitos de refrescamiento como sucede con las RAMs dinámicas, pero usan mucha más energía y espacio. La misma es usada como memoria caché.

b) Sync SRAM (Synchronous Static Random Access Memory).
Es también un tipo de memoria caché. La RAM sincronizada a ráfagas ofrece datos de modo sincronizado con lo que no hay retraso en los ciclos de lectura a ráfagas, con tiempo 2-1-1-1 ciclos de reloj. El problema está en velocidades de reloj superiores a los 66 mhz, puesto que los ciclos de reloj pasan a ser de 3-2-2-2lo que es significativamente más lento que la memoria PB SRAM la cual tiene un tiempo de acceso de 3-1-1-1 ciclos. Estos módulos están en desuso porque su precio es realmente elevado y sus prestaciones frente a la PB SRAM no son buenas por lo que se fabrican en pocas cantidades.

c) PB SRAM (Pipeline Burst Static Random Access Memory).
Es un tipo de memoria estática pero que funciona a ráfagas mediante el uso de registros de entrada y salida, lo que permite solapar los accesos de lectura a memoria. Es usada como caché al igual que la SRAM, y la más rápida de la actualidad con soporte para buses de 75 mhz ó superiores. Su velocidad de acceso suele ser de 4 a 8 nanosegundos.

2.12.2. RAM dinámica o DRAM:
Las RAM dinámicas almacenan la información en circuitos integrados que contienen condensadores, que pueden estar cargados o descargados. Como éstos pierden su carga en el transcurso del tiempo, se debe incluir los circuitos necesarios para "refrescar" los chips de RAM cada pocos milisegundos, para impedir la pérdida de su información. Algunas memorias dinámicas tienen la lógica del refresco en la propia pastilla, dando así gran capacidad y facilidad de conexión a los circuitos. Estas pastillas se denominan casi estáticas. Mientras la RAM dinámica se refresca, el procesador no puede leerla. Si intenta hacerlo en ese momento, se verá forzado a esperar. Como son relativamente sencillas, las RAM dinámicas suelen utilizarse más que las RAM estáticas, a pesar de ser más lentas.

Tipos de RAM dinámica:
a) DRAM (Dynamic Random Access Memory).
Memoria dinámica de acceso aleatorio. Usada en PC como el 386 su velocidad de refrescamiento típica es de80 ó 70 nanosegundos. Físicamente aparece en forma de DIMMs o de SIMMs. Opera de la siguiente manera, las posiciones de memoria están organizadas en filas y columnas. Cuando accedemos a la memoria empezamos especificando la fila, después la columna y por último decimos si deseamos escribir o leer en esa posición. En ese momento la memoria coloca los datos de esa posición en la salida si el acceso es de lectura o toma los datos y los almacena en la posición seleccionada si el acceso es de escritura.

b) FPM (Fast Page Memory).
Memoria en modo paginado. También es llamada FPM RAM, FPM DRAM ó DRAM puesto que evoluciona directamente de ella es algo más rápida ya que su velocidad es de 70 ó 60 nanosegundos. Físicamente aparece como SIMMs de 30 ó 72 contactos. Con el modo pagina, la fila se selecciona una sola vez para todas las columnas dentro de la fila, dando así un rápido acceso. Usada en sistemas con velocidades de bus de 66 mhz, generalmente equipos con procesadores Pentium de 100 a 200 mhz y en algunos 486.

c) EDO RAM.
Extended Data Output Random Access Memory – Memoria de acceso aleatorio extendida de salida de datos. Evoluciona de la Fast Page Memory mejorando el rendimiento en un 10% aproximadamente. Con un refrescamiento de 70,60 ó 50 nanosegundos. Se instala sobre todo en SIMMs de 72 contactos, aunque también se puede encontrar en forma de DIMMs de 168 contactos. El secreto de la memoria EDO radica en una serie de latchs que se colocan a la salida de la memoria para almacenar los datos en ellos hasta que el bus de datos queda libre y pueden trasladarse a la CPU, o sea mientras la FPM puede acceder a un único byte la EDO permite mover un bloque completo de memoria. Muy común en los Pentium, Pentium Pro, AMD K6 y los primeros Pentium II.

d) SDRAM (Synchronous Dynamic Random Access Memory).
Memoria de acceso aleatoria sincronizado. Es casi un 20 % más rápida que le EDO RAM. La SDRAM entrelaza dos o más matrices de memoria interna de tal forma que mientras se está accediendo a una matriz, la siguiente se está preparando para el acceso, es capaz de sincronizar todas las señales de entrada y salida con la velocidad del reloj de sistema. Es síncrona debido a que posee la misma velocidad que el sistema, con tiempos de acceso de entre 25 y 10 ns y que se presentan en módulos DIMM de 168 contactos. Fue utilizada en los Pentium 2 y en los Pentium III, así como en los AMD K6, K7 y Duron. Dependiendo de la frecuencia de trabajo se dividen en:
• PC66: la velocidad de bus de memoria es de 66 Mhz, temporización de 15 ns y ofrece tasas de transferencia de hasta 533 MB/s.
• PC100: la velocidad de bus de memoria es de 100 Mhz, temporización de 8 ns y ofrece tasas de transferencia de hasta 800 MB/s.
• PC133: la velocidad de bus de memoria es de 133 Mhz, temporización de 7,5 ns y ofrece tasas de transferencia de hasta 1066 MB/s.
Está muy extendida la creencia de que se llama SDRAM a secas, y que la denominación SDR SDRAM es para diferenciarla de la memoria DDR, pero no es así, simplemente se extendió muy rápido la denominación incorrecta. El nombre correcto es SDR SDRAM ya que ambas (tanto la SDR como la DDR) son Memorias Síncronas Dinámicas.

e) BEDO RAM (Burst Extended Data Ouput Memory Random Access).
Es una evolución de la EDO RAM la cual compite con la SDRAM. Lee los datos en ráfagas, lo que significa que una vez que se accede a un dato de una posición determinada de memoria se leen los tres siguientes datos en un solo ciclo de reloj por cada uno de ellos, reduciendo los tiempos de espera del procesador En la actualidad es soportada por los chipsets VIA 580VP, 590VP y 680VP. Al igual que la EDO RAM la limitación de la BEDO RAM es que no puede funcionar por encima de los 66 mhz.

f) DDR SDRAM (Double Data Rate SDRAM).
Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De este modo trabaja al doble de velocidad del bus del sistema, sin necesidad de aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184 contactos. La Asociación de Tecnología del Estado Sólido (JEDEC), asociación esta de estandarización de la ingeniería de semiconductores, clasifica las memorias DDR del mismo modo que las SDR SDRAM, en función de la frecuencia del sistema, de la siguiente manera:
• PC 1600 ó DDR200: funciona a 2.5 V, trabaja a 200MHz, es decir 100MHz de bus de memoria y ofrece tasas de transferencia de hasta 1,6 GB/s (de ahí el nombre PC1600). Este tipo de memoria la utilizaron los Athlon XP de AMD, y los primeros Pentium 4.
• PC 2100 ó DDR266: funciona a 2.5 V, trabaja a 266MHz, es decir 133MHz de bus de memoria y ofrece tasas de transferencia de hasta 2,1 GB/s (de ahí el nombre PC2100).
• PC 2700 ó DDR333: funciona a 2.5 V, trabaja a 333MHz, es decir 166MHz de bus de memoria y ofrece tasas de transferencia de hasta 2,7 GB/s (de ahí el nombre PC2700).
• PC 3200 ó DDR400: funciona a 2.5V, trabaja a 400MHz, es decir, 200MHz de bus de memoria y ofrece tasas de transferencia de hasta 3,2 GB/s (de ahí el nombre PC3200).
También existen las especificaciones DDR433, DDR466, DDR500, DDR533 y DDR600 pero según muchos ensambladores es poco práctico utilizar DDR a más de 400MHz, por lo que está siendo sustituida por la revisión DDR2.
• PC-4200 ó DDR2-533: trabaja a 533Mhz, es decir, 133 MHz de bus de memoria y ofrece tasas de transferencia de hasta 4,2 GB/s (de ahí el nombre PC4200).
• PC-4800 ó DDR2-600: trabaja a 600Mhz, es decir, 150 MHz de bus de memoria y ofrece tasas de transferencia de hasta 4,8 GB/s (de ahí el nombre PC4800).
• PC-5300 ó DDR2-667: trabaja a 667Mhz, es decir, 166 MHz de bus de memoria y ofrece tasas de transferencia de hasta 5,3 GB/s (de ahí el nombre PC5300).
• PC-6400 ó DDR2-800: trabaja a 800Mhz, es decir, 200 MHz de bus de memoria y ofrece tasas de transferencia de hasta 6,4 GB/s (de ahí el nombre PC6400).
También existen las versiones DDR2-400, DDR2-433, DDR2-466, DDR2-500 (por la misma razón anterior, JEDEC no considera práctico DDR2 a menos de 533Mhz), DDR2-1000, DDR2-1066, DDR2-1150 y DDR2-1200.
DDR3 es el nombre del nuevo estándar que está siendo desarrollado como sucesor del DDR2. Teóricamente, estos módulos pueden transferir datos a una tasa de reloj efectiva de 800 - 1600 Mhz, comparado con el rango actual del DDR2 de 533-800 MHz ó 200-400 MHz del DDR. Los DIMMS DDR3 tienen 240 pins, el mismo número que DDR2, sin embargo, los DIMMS son físicamente incompatibles, debido a una ubicación diferente de la muesca. Estos (DDR3) son los mas actuales ya que comenzaron a salir al mercado a finales del año 2007.

g) ESDRAM (Enhanced SDRAM).
Para superar algunos de los problemas de latencia inherentes con los módulos de memoria DRAM estándar, varios fabricantes han incluido una cantidad pequeña de SRAM directamente en el chip, eficazmente creando un caché en el chip. Permite tiempos de latencia más bajos y funcionamientos de 200 mhz. La SDRAM oficia como un caché dentro de la memoria. Existe actualmente un chipset que soporta este tipo de memoria, un chipset desocket 7.Una de las desventajas de estas memorias es que su valor es 4 veces mayor al de la memoria DRAM.

h) SLDRAM (Sysnclink DRAM).
La SLDRAM es una DRAM fruto de un desarrollo conjunto y, en cuanto a la velocidad, puede representar la competencia más cercana de Rambus. Su desarrollo se lleva a cabo por un grupo de 12 compañías fabricantes de memoria. La SLDRAM es una extensión más rápida y mejorada de la arquitectura SDRAM que amplía el actual diseño de 4 bancos a 16 bancos. La SLDRAM se encuentra actualmente en fase de desarrollo y se prevé que entre en fase de producción en el 2000. El ancho de banda de SLDRAM es de los más altos3.2GB/s y su costo no seria tan elevado.

i) RDRAM
La tecnología RDRAM de Rambus ofrece un diseño de interfacechip a chip de sistema que permite un paso de datos hasta 10 veces más rápido que la DRAM estándar, a través de un bus simplificado. Se la encuentra en módulos RIMM los que conforman el estándar de formato DIMM pero sus pines no son compatibles. Su arquitectura está basada en los requerimientos eléctricos del Canal RAMBUS, un bus de alta velocidad que opera a una tasa de reloj de 400 MHzel cual habilita una tasa de datos de 800MHz. Por motivos comerciales se la denomina PC600, PC700 y PC800 siendo sus capacidades de transferencia las siguientes:
• Rambus PC600: 2x2 bytes/ciclo x 300 Mhz = 1,20 Gb/s
• Rambus PC700: 2x2 bytes/ciclo x 356 Mhz = 1,42 Gb/s
• Rambus PC800: 2x2 bytes/ciclo x 400 Mhz = 1,60 Gb/s
El bus usa características de líneas de transmisión para mantener una alta integridad en la señal. El control de la temperatura se hace a través de un disipador y un elastómero térmicamente conductor.
Especificaciones:
• Densidad RIMM: 32MB, 64MB y 128MB
• Voltaje de operación: 2.5V.
• Tasa de reloj 300 MHz, 400 Mhz.
• Tasa de datos: 600 MHz, 800 Mhz
• Detección serial de presencia con una EEPROM serial
Se presenta en dos modalidades: RDRAM y RDRAM concurrente. La RDRAM se encuentra actualmente en fase de producción, mientras que la RDRAM concurrente entró en esta etapa en 1997. La tercera extensión de la línea, la RDRAM directa, está en período de desarrollo, y empezará a fabricarse en 1999. A finales de 1996, Rambus llegó a un acuerdo con Intel que incluía un contrato de licencia y desarrollo y que permitirá que los chips de Intel sean compatibles con la memoria Rambus a partir de 1999.
Se pueden usar hasta tres módulos RIMM en una placa base de un PC de escritorio, como se muestra en la imagen. Aquí el canal Rambus se extiende desde el controlador a través de cada módulo RIMM usado de una forma continua hasta que se alcanza la terminación del canal. Los módulos de continuidad de bajo costo se usan para mantener la integración del canal en sistemas que tengan menos de tres módulos RIMM. Un chip en placa SPD (Serial Presence Detect) PROM se usa para permitir la inicialización de la información al procesador del sistema en el encendido. Esta técnica asegura la compatibilidad de todos los fabricantes de RDRAM Direct Rambus que producen dispositivos DRAM de varias densidades.
La creciente lista de fabricantes de Rambus que producen los módulos RIMM incluyen los más importantes fabricantes de módulos de memoria. Se planea una variante de los módulos RIMM para los PCs portátiles. La tecnología Direct Rambus también se desarrolla para servidores de gran escala, estaciones de trabajo y aplicaciones de comunicaciones.
A nivel de sistema, los fabricantes que lideran la industriase han asociado en torno al Rambus para desarrollar los componentes de la infraestructura estandarizada de Direct Rambus incluyendo dispositivos de memoria RDRAM, controladores de memoria, chips de reloj y conectores.


3. TARJETAS DE VIDEO.

3.1. Definiciones elementales.
Consideramos necesario, definir estos términos antes de adentrarnos en las características técnicas de las tarjetas de video.

- Tarjeta gráfica: (también llamada tarjeta aceleradora de gráficos o tarjeta de video) es una tarjeta de expansión para cualquier computador, y se encarga de procesar los datos provenientes de la CPU y transformarlos en información comprensible y representable en un dispositivo de salida, como un monitor o televisor.
- Monitor: es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora (CPU).
- Interfaz: es el puerto o circuito físico a través del que se envían o reciben señales desde un sistema o subsistemas hacia otros.

3.2. Historia de las tarjetas de video.
En el principio, los ordenadores eran ciegos; todas las entradas y salidas de datos se realizaban mediante tarjetas de datos perforadas, o mediante el teclado y primitivas impresoras. Un buen día, alguien pensó que era mucho más cómodo acoplar una especie de televisor al ordenador para observar la evolución del proceso y los datos, y surgieron los monitores, que debían recibir su información de cierto hardware especializado: la tarjeta gráfica o de vídeo.

3.2.1. MDA.
En los primeros ordenadores, los gráficos brillaban... por su ausencia. Las primeras tarjetas de vídeo presentaban sólo texto monocromo, generalmente en un agradable tono ámbar o verde que dejaba los ojos hechos polvo en cuestión de minutos. De ahí que se las denominase MDA, Monochrome Display Adapter.


3.2.2. CGA.
Luego, con la llegada de los primeros PCs, surgió una tarjeta de vídeo capaz de presentar gráficos: la CGA (Computer Graphics Array, dispositivo gráfico para ordenadores). Tan apasionante invento era capaz de presentar gráficos de varias maneras:

Resolución (horizontal x vertical) Colores
320x200 4
640x200 2 (monocromo)

Lo cual, aunque parezca increíble, resultó toda una revolución. Aparecieron multitud de juegos que aprovechaban al máximo tan exiguas posibilidades, además de programas más serios, y los gráficos se instalaron para siempre en el PC.

3.2.3. HGC (Hércules Graphic Card).
Se trataba ésta de una tarjeta gráfica de corte profundamente profesional. Su ventaja, poder trabajar con gráficos a 720x348 puntos de resolución, algo alucinante para la época; su desventaja, que no ofrecía color. Es por esta carencia por la que no se extendió más, porque jugar sin color no es lo mismo, y el mundo PC avanza de la mano de los diseñadores de juegos.

3.1.4. EGA (Enhanced Graphics Adapter)
Tenía una profundidad de color de 16 colores y una resolución de hasta 640×350 píxels. La tarjeta EGA tenía 16 kilobytes de ROM para ampliar la de la BIOS con funciones adicionales e incluía el generador de direcciones de video Motorola MC6845. A cada uno de los 16 colores se les podía asignar un color RGB de una paleta en el modo de alta resolución 640×350. Permitía también, escoger los colores de una paleta de 64 diferentes (dos bits por píxel para rojo, verde y azul). Este estándar (EGA) quedó obsoleto con la introducción del VGA por IBM en Abril de 1987. Lo siguiente resume la capacidad de la tarjeta EGA:

Resolución (horizontal x vertical) Colores
320x200 16
640x200 16
640x350 16

Estas cifras hacían ya posible que los entornos gráficos se extendieran al mundo PC (los Apple llevaban años con ello), y aparecieron el GEM, el Windows y otros muchos.

3.2.5. VGA (Video Graphics Array)
El estándar, la pantalla de uso obligado desde hace ya 10 años. Tiene multitud de modos de vídeo posibles, aunque el más común es el de 640x480 puntos con 256 colores, conocido generalmente como "VGA estándar" o "resolución VGA".

3.1.6. SVGA, XGA y superiores.
El éxito del VGA llevó a numerosas empresas a crear sus propias ampliaciones del mismo, siempre centrándose en aumentar la resolución y el número de colores disponibles. Entre ellos estaban:

- Modo de vídeo
- Máxima resolución y máximo número de colores
- SVGA 800x600 y 256 colores
- XGA 1024x768 y 65536 colores
- IBM 8514/A 1024x768 y 256 colores (no admite 800x600)

De cualquier manera, la frontera entre unos estándares y otros es sumamente confusa, puesto que la mayoría de las tarjetas son compatibles con más de un estándar, o con algunos de sus modos. Además, algunas tarjetas ofrecen modos adicionales al añadir más memoria de vídeo.

Presentamos a continuación, a modo de resumen, una lista de los estándares en video más encontrados en nuevos y viejos computadores. En esta columna, en la sección o columna de “Especificaciones” se encontrará algunas características y los tipos de resoluciones que esos estándares son capaces de soportar:

Tipo Especificaciones Producido por
MDA Sólo monocromático, estándar de solo-texto (text-only), el texto se muestra a 80 x 25
Max de 720 x 350 de resolución pero cada pixel no es accesible individualmente, debido a que es sólo-texto. Desarrollado por IBM
CGA
(Color Graphics Adapter)
Max de 640 x 200 (Monocromático) en modo para gráficos (Graphic Mode).
Max de 160 x 200 (16 colores) en modo para gráficos (Graphic Mode).
Max de 80 x 25 de resolución en Modo para Texto (Text Mode). Desarrollado por IBM
EGA
(Enhanced Graphics Adapter) Max de 640 x 350 (16 colores, 60Hz) en Modo para Gráficos (Graphics Mode).
Max de 80 x 25 de resolución en Modo de Texto.
Desarrollado por IBM en 1984
PGA
(Professional Graphics Adapter) Max de 640 x 400 Desarrollado por IBM
VGA
(Video Graphics Adapter) Max de 640 x 480 (16 colores) en Modo para Gráficos (Graphics Mode).
Max de 320 x 200 (256 colores) en Modo para Gráficos (Graphics Mode).
Max de 720 x 400 de resolución en modo para texto. Desarrollado por IBM en 1987
XGA
(Extended graphics array) Es una actualización de la tarjeta de video VGA.
Max de1024 x 768 (256 colores) en Modo para Gráficos (Graphics Mode). Desarrollado por IBM in 1990.
SVGA
No tiene una definición real, pero comúnmente se refiere ésta como (Super Video Graphics adapter). Depende de la cantidad de memoria de video que posea. En la tabla mostrada a continuación de ésta (Tabla 2.), encontramos los distintos modos disponibles según la memoria que posea.
SXGA
(Super XGA) Max de 1400x1050 en Modo para Gráficos (Graphics Mode).
UXGA
(Ultra XGA) Max de 1600x1200 en Modo para Gráficos (Graphics Mode).
WSXGA
(Wide SXGA) Soporta resoluciones de 1600 x 900 pixeles o de
1600 x 1024 pixeles
WUXGA
(Wided UXGA)
WXGA
Wide XGA Max de 1366x768 de resolución.
Es una ampliación de resolución horizontal (el término "wide" se refiere al formato panorámico) del formato XGA.
Tabla 1. Estándares de Tarjetas de Video




3.3. La resolución y el número de colores
Se denomina resolución de pantalla a la cantidad de pixeles que se pueden ubicar en un determinado modo de pantalla. Estos pixeles están a su vez distribuidos entre el total de horizontales y el de verticales. Todos los monitores pueden trabajar con múltiples modos, pero dependiendo del tamaño del monitor, unos nos serán más útiles que otros.
Un monitor cuya resolución máxima sea de 1024x768 pixeles puede representar hasta 768 líneas horizontales de 1024 pixeles cada una, probablemente además de otras resoluciones inferiores, como 640x480 u 800x600.

Cuanto mayor sea la resolución de un monitor, mejor será la calidad de la imagen en pantalla, y mayor será la calidad del monitor. La resolución debe ser apropiada además al tamaño del monitor; es normal que un monitor de 14" ó 15" no ofrezca 1280x1024 pixeles, mientras que ésta es la mínima resolución que se le puede exigir a un monitor de 17" o superior.
Hay que decir que aunque se disponga de un monitor que trabaje a una resolución de 1024x768 pixeles, si la tarjeta gráfica instalada es VGA (640x480), la resolución de nuestro sistema será esta última (640x480).
En cuanto al número de colores, resulta casi evidente: los que puede presentar a la vez por pantalla la tarjeta. Así, aunque las tarjetas EGA sólo representan a la vez 16 colores, los eligen de una paleta de 64 colores.
La combinación de estos dos parámetros se denomina modo de vídeo; están estrechamente relacionados: a mayor resolución, menor número de colores representables, y a la inversa. En tarjetas modernas (SVGA y superiores), lo que las liga es la cantidad de memoria de la tarjeta de vídeo (no la memoria general o RAM del computador). Algunas combinaciones son mostradas en la Tabla 2, más adelante.
Para los curiosos, el cálculo de la memoria necesaria es:
(Res. Vertical) x (Res. Horizontal) x (Bits de color) / 8.
Cabe destacar que el modo de vídeo elegido debe ser soportado por el monitor, si no éste podría dañarse si no es muy moderno, ya que los monitores actuales se desactivan automáticamente al detectar una configuración incompatible. Esto depende de las características del mismo, en concreto de la Frecuencia Horizontal.
Por otra parte, los modos de resolución para gráficos en 3D (fundamente juegos) suelen necesitar bastante más memoria, en general unas 3 veces más; por ello, jugar a 800x600 puntos con 16 bits de color (65.536 colores) suele requerir al menos 4 MB de memoria de vídeo.
Como ya hemos visto, la resolución del video y la profundidad de colores, aumenta de acuerdo a la cantidad de memoria que poseemos. Esta tabla que presentamos a continuación ilustra todas las resoluciones y profundidades de colores disponibles para la mayoría de los PC, y la cantidad de memoria que cada tipo necesita:

RESOLUCION / COLOR 512K 1MB 2MB 4MB 6MB
640 x 480 @ 8-Bit 256 Colores X X X X X
640 x 480 @ 16-Bit (65,000 Colores) X X X X
640 x 480 @ 24-Bit (16.7 Millones Colores) X X X X
800 x 600 @ 8-Bit 256 Colores X X X X X
800 x 600 @ 16-Bit (65,000 Colores) X X X X
800 x 600 @ 24-Bit (16.7 Millones Colores) X X X
1024 x 768 @ 8-Bit 256 Colores X X X X
1024 x 768 @ 16-Bit (65,000 Colores) X X X
1024 x 768 @ 24-Bit (16.7 Millones Colores) X X
1152 x 1024 @ 8-Bit 256 Colores X X X
1152 x 1024 @ 16-Bit (65,000 Colores) X X X
1152 x 1024 @ 24-Bit (16.7 Millones Colores) X X
1280 x 1024 @ 8-Bit 256 Colores X X X
1280 x 1024 @ 16-Bit (65,000 Colores) X X
1280 x 1024 @ 24-Bit (16.7 Millones Colores) X X
1600 x 1200 @ 8-Bit 256 Colores X X X
1600 x 1200 @ 16-Bit (65,000 Colores) X X
1600 x 1200 @ 24-Bit (16.7 Millones Colores) X
TABLA 2. Relación Memoria de Video – Resolución y profundidad de colores.



3.4. La velocidad de refresco (Refresh Rate)
Es el número de veces que se escribe la información en pantalla por unidad de segundo. También se llama “Frecuencia de Refresco Vertical”. Se puede comparar al número de fotogramas por segundo de una película de cine, por lo que deberá ser lo mayor posible. Se mide en Hz (hertzios) y debe estar por encima de 60 Hz, preferiblemente 70 u 80 (Con esto vemos que, 70 Hz significa que la pantalla se dibuja cada 1/70 de segundo, o 70 veces por segundo). A partir de esta cifra, la imagen en la pantalla es sumamente estable, sin parpadeos apreciables, con lo que la vista sufre mucho menos. Se toma como mínimo absoluto 60 Hz, por debajo de esta cifra los ojos sufren muchísimo, y unos minutos bastan para empezar a sentir hasta incluso un pequeño dolor de cabeza.
Antiguamente los monitores sólo podían presentar imágenes con unos refrescos determinados y fijos, por ejemplo los monitores CGA o EGA y algunos VGA que usaban una técnica horrible denominada entrelazado, que consiste en que la pantalla se dibuja en dos pasadas, primero las líneas impares y luego las pares, por lo que 70 Hz entrelazados equivale a poco más de 35 sin entrelazar, lo que cansa la vista sobremanera; hoy en día todos los monitores pueden presentar varios refrescos dentro de un rango determinado (multiscan).
La tarjeta de video es la que proporciona estos refrescos, pero quien debe presentarlos es el monitor. Si ponemos un refresco de pantalla que el monitor no soporta, podríamos dañarlo , por lo que debemos conocer su rango de velocidades de refresco para no tener ningún problema, para lo cual lo mejor es leer con detenimiento el manual o mirar otro parámetro denominado Frecuencia Horizontal , que debe ser lo mayor posible, entre unos 30 a 80 Khz.
Tampoco todas las tarjetas de vídeo pueden ofrecer cualquier velocidad de refresco. Esto depende de dos parámetros:
• La velocidad del RAMDAC, que es el conversor analógico digital y se mide en MHz, y debe ser lo mayor posible, preferiblemente superior a 300 MHz.
• La velocidad de la memoria de vídeo, preferiblemente de algún tipo avanzado como WRAM, SGRAM o SDRAM. Lo último es la DDR SDRAM.


3.5. Memoria de vídeo
Como hemos dicho, su tamaño influye en los posibles modos de vídeo (cuanta más exista, más opciones tendremos); además, su tipo determina si conseguiremos buenas velocidades de refresco de pantalla o no. Los tipos más comunes son:

• DRAM: en las tarjetas más antiguas, ya descatalogadas. Malas características; refrescos máximos entorno a 60 Hz.
• EDO: también llamada "EDO DRAM". Hasta hace unos cuatro años, estándar en tarjetas de calidad media-baja. Muy variables refrescos dependiendo de la velocidad de la EDO, entre 40 ns las peores y 25 ns las mejores.
• VRAM y WRAM: bastante buenas, aunque en desuso; en tarjetas de calidad, muy buenas características.
• MDRAM: un tipo de memoria no muy común, pero de alta calidad.
• SDRAM, DDR SDRAM: actualmente la mayoría de los fabricantes la utilizan debido a que tiene muy buenas prestaciones. La DDR SDRAM duplica el ancho de banda de la SDRAM al duplicar la transferencia de datos. DDR (Double Data Rate) y lo que la diferencia de la SDRAM (Single Data Rate) es que permite la transferencia de datos por dos canales distintos simultáneamente en un mismo ciclo de reloj, o lo que es lo mismo, en otras palabras, la capacidad de mandar y recibir datos simultáneamente.
• SGRAM: este es un tipo de memoria SDRAM fabricada en especial para uso gráfico, en teoría incluso un poco más rápida, pero actualmente está en desuso debido a su alto precio y bajo rendimiento comparado con la DDR SDRAM.

Según la tarjeta gráfica esté integrada en la placa base (bajas prestaciones) o no, utilizará la memoria RAM propia del ordenador o dispondrá de una propia. Dicha memoria es la memoria de vídeo o VRAM. Su tamaño oscila entre 128 MB y 892 MB. La memoria empleada en 2006 estaba basada en tecnología DDR, destacando DDR2, GDDR3 y GDDR4. La frecuencia de reloj de la memoria se encontraba entre 400 MHz y 1,8 GHz.
Una parte importante de la memoria de un adaptador de video es el Z-Buffer, encargado de gestionar las coordenadas de profundidad de las imágenes en los gráficos 3D.
Tecnología Frecuencia (MHz) Ancho de banda (GB/s)
DDR 166 - 950 1.2 - 30.4
DDR2 533 - 1000 8.5 - 16
GDDR3 700 - 1700 5.6 - 54.4
GDDR4 1600 - 1800 64 - 86.4







3.6. Interfaces con la placa base o tarjeta madre.
La tarjeta gráfica, como añadido que es al PC, se conecta a éste mediante un slot o ranura de expansión. Muchos tipos de ranuras de expansión se han creado precisamente para satisfacer a la ingente cantidad de información que se transmite cada segundo a la tarjeta gráfica. Por orden cronológico, han sido principalmente las siguientes:
• ISA: el conector original del PC, poco apropiado para uso gráfico; en cuanto llegamos a tarjetas con un cierto grado de aceleración resulta insuficiente. Usado hasta las primeras VGA "aceleradoras gráficas", aquellas que no sólo representan la información sino que aceleran la velocidad del sistema al liberar al microprocesador de parte de la tarea gráfica mediante diversas optimizaciones. Arquitectura de bus de 16 bits a 8 MHz, dominante durante los años 1980; fue creada en 1981 para los IBM PC.
• MCA: intento de sustitución en 1987 de ISA por IBM. Disponía de 32 bits y una velocidad de 10 MHz, pero era incompatible con los anteriores.
• EISA: respuesta en 1988 de la competencia de IBM; de 32 bits, 8.33 MHz y compatible con las placas anteriores.
• VESA Local Bus: más que un slot, es un bus, un conector íntimamente unido al microprocesador, lo que aumenta la velocidad de transmisión de datos. Una solución barata usada en muchas placas 486, de buen rendimiento pero tecnológicamente no muy avanzada. Creado como extensión de ISA que solucionaba la restricción de los 16 bits, duplicando el tamaño de bus y con una velocidad de 33 MHz.
• PCI: el estándar para conexión de tarjetas gráficas hasta hace poco. Suficientemente veloz hasta hace un par de años y actualmente para quien no requiera una gran potencia de cálculo en 3D, ordenadores destinados, por ejemplo, a tareas ofimáticas. Fue un bus que desplazó a los anteriores a partir de 1993; posee un tamaño de 32 bits y una velocidad de 33 MHz, y permitía una configuración dinámica de los dispositivos conectados sin necesidad de ajustar manualmente los jumpers. Posteriormente, PCI-X fue una versión que aumentó el tamaño del bus hasta 64 bits y aumentó su velocidad hasta los 133 MHz.
• AGP: tampoco un slot, sino un puerto (algo así como un bus local), pensado únicamente para tarjetas gráficas que transmitan una enorme cantidad de MB/s de información, típicamente las 3D. Presenta poca ganancia en prestaciones frente a PCI, pero tiene la ventaja de que las tarjetas AGP pueden utilizar memoria del sistema como memoria de vídeo (lo cual, sin embargo, penaliza mucho el rendimiento del computador). Posee un bus dedicado, de 32 bits como PCI; en 1997 la versión inicial incrementaba la velocidad hasta los 66 MHz.
• PCIe: actualmente muy usada, es una interfaz en serie que desde 2004 empezó a competir contra AGP, llegando a doblar en 2006 el ancho de banda del AGP. Hay que tener cuidado y no debe confundirse con PCI-X, que es una versión mejorada del PCI.

En cualquier caso, el conector (slot) sólo puede limitar la velocidad de una tarjeta, no la eleva, lo que explica que algunas tarjetas PCI sean muchísimo más rápidas que otras AGP más baratas o peor fabricadas. Debido a sus limitaciones, luego aparecieron el AGP 2X, 4X y hasta 8x, elevando considerablemente la velocidad inicial del bus.

A continuación presentamos una tabla de resumen:

Bus Anchura
(bits) Frecuencia
(MHz) Ancho
de banda
(MB/s) Puerto
ISA XT 8 4,77 8 Paralelo
ISA AT 16 8,33 16 Paralelo
MCA 32 10 20 Paralelo
EISA 32 8,33 32 Paralelo
VESA 32 40 160 Paralelo
PCI 32 - 64 33 - 100 132 - 800 Paralelo
AGP 1x 32 66 264 Paralelo
AGP 2x 32 133 528 Paralelo
AGP 4x 32 266 1000 Paralelo
AGP 8x 32 533 2000 Paralelo
PCIe x1 1*32 25 / 50 100 / 200 Serie
PCIe x4 1*32 25 / 50 400 / 800 Serie
PCIe x8 1*32 25 / 50 800 / 1600 Serie
PCIe x16 1*32 25 / 50 1600 / 3200 Serie





3.6. Tarjetas de TV
Las tarjetas sintonizadoras de TV son tarjetas de expansión (normalmente para slot PCI) capaces de sintonizar los diferentes canales de televisión a partir de la señal localizada en un cable coaxial de TV (sea cual sea la procedencia física de la señal, haya venido por cable coaxial, HFB, por antena parabólica, etc.). Esta señal se introduce en la tarjeta de TV por medio del conector BNC exterior de modo que la tarjeta se encargue de sintonizar un determinado canal de TV de la gama de canales modulados en frecuencia que recibamos en nuestra instalación local. De todo esto se encargan los drivers y programas que vienen en la tarjeta, normalmente únicamente en versión Microsoft Windows.

lunes, 17 de marzo de 2008

Ethernet...

Ethernet:
Es el nombre de una tecnología de redes de computadoras de área local (LANs) basada en tramas de datos. El nombre viene del concepto físico de ether. Ethernet define las características de cableado y señalización de nivel fisico y los formatos de trama del nivel de enlace de datos del modelo OSI. Ethernet se refiere a las redes de área local y dispositivos bajo el estándar IEEE 802.3 que define el protocolo CSMA/CD, aunque actualmente se llama Ethernet a todas las redes cableadas que usen el formato de trama descrito más abajo, aunque no tenga CSMA/CD como método de acceso al medio


En ethernet tenemos un medio "único" y compartido por todas las estaciones. Este medio es el cable coaxial tenemos terminadores para cerrar las líneas de cableado coaxial y cada ordenador esta conectado al cable (para así formar la red) mediante un conector tipo vampiro (es un tipo de adaptador que penetra el cable coaxial (un extremo lateral) y asi mismo toca el filamento de cobre lo cual permite crear una extensión hacia un ordenador) el acceso a la red para el envió de tramas obviamente implementa en CSMA/CD que explicaran a continuación
Ethernet es la capa física más popular de la tecnología LAN usada actualmente es popular porque permite un buen equilibrio entre velocidad, costo y facilidad de instalación. Estos puntos fuertes, combinados con la amplia aceptación en el mercado y la habilidad de soportar virtualmente todos los protocolos de red populares, hacen a Ethernet la tecnología ideal para la red de la mayoría de los usuarios de la informática actual. Su protocolo tiene las características siguientes:

• Es fácil de entender, de poner en ejecución, de manejar, y de mantener
• Permite las puestas en práctica baratas de la red
• Proporciona la flexibilidad topológica extensa para la instalación de la red
• Garantiza la interconexión y la operación acertadas de productos estándar-obedientes, sin importar fabricante

Codificación de Manchester:
La codificación Manchester es un método de codificación eléctrica de una señal binaria en el que en cada tiempo de bits hay una transición entre dos niveles de señal. Es una codificación auto sincronizada, ya que en cada bit se puede obtener la señal de reloj, lo que hace posible una sincronización precisa del flujo de datos

Para poder sincronizar algo se debe trabajar con periodos de tiempo que varíen aleatoriamente y para ello implementamos una señal de clock. Las señales de los datos ya las sabemos debido a que son el resultado de lo que deseamos enviar el protocolo de Manchester lo que hace es que sincroniza el envió de datos con el clock de tal manera que no haya adelantos y retrasos en los envíos dentro de la transmisión

• Descripción
 Las señales de datos y de reloj, se combinan en una sola que auto-sincroniza el flujo de datos.
 Cada bit codificado contiene una transición en la mitad del intervalo de duración de los bits.
 La primera mitad es el verdadero valor del bit, y la segunda es información que no es necesaria, y simplemente se pone para completar el bit

• Desventajas del uso de la codificación Manchester
Una consecuencia de las transiciones para cada bit es que el requerimiento del ancho de banda para la codificación Manchester es el doble comparado en las comunicaciones asíncronas, y el espectro de la señal es considerablemente mas ancho. Sin embargo la codificación Manchester es una forma de codificación altamente fiable, pero el ancho de banda es visto como una gran desventaja. La mayoría de los sistemas modernos de comunicación están hechos con protocolos con líneas de codificación que persiguen las mismas metas, pero optimizan mejor el ancho de banda, haciéndolo menor. Una consideración a tener en cuenta en la codificación Manchester es la sincronización entre el transmisor y el receptor. A primera vista podría parecer que un periodo de error de medio bit conduciría a una salida invertida en el extremo receptor, pero una consideración más cuidadosa revela que para datos típicos esto llevaría a violaciones de código. El hardware usado puede detectar esas violaciones de código, y usar esta información para sincronizar adecuadamente en la interpretación correcta de los datos.

(CSMA/CD)

Técnicas de Acceso al Medio

Las estaciones detectan lo que están haciendo las demás estaciones y adaptan su comportamiento con base en ello.

Los protocolos en que las estaciones detectan una portadora (es decir, una transmisión) y actúan de acuerdo con ello se llaman protocolos de detección de portadora.
Existen diferentes tipos.



• CSMA persistente-1

Se llama persistente-1 por que la estación transmite con una probabilidad de 1 cuando encuentra que el canal esta inactivo.

Si el canal está ocupado, la estación espera hasta que se desocupa. Cuando la estación detecta un canal en reposo, transmite un marco. Si ocurre una colisión, la estación espera una cantidad aleatoria de tiempo y comienza de nuevo. El protocolo se llama persistente-1 porque la estación transmite con una probabilidad de 1 cuando encuentra en reposo el canal.

El retardo de propagación tiene un efecto importante en el desempeño del protocolo. Hay una pequeña posibilidad de que, justo después de que una estación comienza a transmitir, otra estación está lista para enviar y detectar el canal. Si la señal de la primera estación no ha llegado aún a la segunda, esta ultima detectará un canal inactivo y comenzará a enviar también, resultan¬do una colisión. Cuanto mayor sea el tiempo de propagación, más importante será este efecto, y peor el desempeño del protocolo.

Aun si el retardo de propagación es de cero, habrá colisiones. Si dos estaciones quedan listas a la mitad de la transmisión de una tercera, ambas esperarán respetuosamente hasta el fin de la transmisión y entonces comenzarán a transmitir simultáneamente, resultando una colisión. Si no fueran tan impacientes, habría menos colisiones. Aun así, este protocolo es mucho mejor que el ALOHA puro, ya que ambas estaciones tienen la decencia de desistir a interferir el marco de la tercera estación. Intuitivamente, esto conducirá a un mejor desempeño que el de ALOMA puro. Ocurre exactamente lo mismo con el ALOHA ranurado.

El retardo de propagación tienen un efecto importante en el desempeño del protocolo
hay pequeña posibilidad de que, justo después de que una estación empiece a transmitir, otra estación empiece a enviar y detectar el canal.
si la señal de la primera no ha llegado a la segunda, esta última detectará un canal inactivo y comenzará a transmitir también, resultando en una colisión
Se está escuchando y en cuanto se detecta que la línea está libre se emite. La colisión ocurre siempre que haya dos o más nodos en espera al final del mensaje que se está transmitiendo en ese momento. La línea puede estar desaprovechada todo el tiempo que dure el mensaje más largo de los que se envían simultáneamente. El rendimiento es sólo del 50 %.


• CSMA no persistente

Se hace un intento consciente de ser menos egoísta que en el previo.

Antes de enviar una estación detecta el canal
si nadie esta transmitiendo, la estación empieza a hacerlo
si el canal ya está en uso, la estación no observa continuamente el canal a fin de tomarlo de inmediato al detectar el final de la transmisión previa
espera un periodo de tiempo aleatorio y repite el algoritmo
Intuitivamente este algoritmo deberá conducir a un mejor uso del canal y a mayores retardos que CSMA-1

• CSMA persistente-p

El último protocolo es el CSMA persistente-p, que se aplica a canales ranurados y funciona como sigue.

Cuando una estación está lista para enviar, escucha el canal.

Sí el canal está en reposo, la estación transmite con una probabilidad p.

Con una probabilidad q = 1 - p, se espera hasta la siguiente ranura.

Si esa ranura también está en reposo, la estación transmite o espera nuevamente, con probabilidades p y q.

Este proceso se repite hasta que el marco ha sido transmitido o hasta que otra estación ha comenzado a transmitir.

En el segundo caso, la estación actúa como si hubiera habido una colisión (es decir, espera un tiempo aleatorio y comienza de nuevo). Si la estación detecta inicialmente que el canal está ocupado, espera hasta la siguiente ranura y aplica el algoritmo anterior.

Por medio de cálculos se establece la probabilidad de que un nodo comience a transmitir una vez que la línea está libre. Cálculos matemáticos permiten la optimización en cada caso dependiendo del número de estaciones y el rendimiento puede elevarse por encima del 80%.

El problema de CSMA era que si se producía una colisión, el medio quedaba indisponible durante todo el tiempo de transmisión de las tramas que colisionaban.

Esto se podría solucionar si las estaciones no solo escucharan el medio al iniciar la transmisión, sino también durante la transmisión.

• (CSMA/CD)

Acceso múltiple sensible a la portadora con detección de colisiones (CSMA/CD, Carriers Sense Múltiple Access with Colusión Detection).

CS: Detección de Portadora. ¨Escuchar antes de Hablar¨.
MA: ¨Todos pueden hablar...mientras la red esté libre¨.
CD: ¨Todos los dispositivos son informados de que hay una colisión¨.

Se emite un paquete y se escucha simultáneamente. Si lo que se escucha no coincide con lo que se transmite significa que hubo una colisión y se deja de emitir inmediatamente. El tiempo de espera una vez detectada la colisión es aleatorio. Como máximo, será proporcional al número de colisiones que se han producido al intentar enviar el mensaje. Con esto se consigue que cuando hay pocas colisiones se reintente inmediatamente, pero que si la línea está muy cargada los reintentos se vayan distanciando para evitar muchas colisiones. Este método de acceso es utilizado por la red Ethernet y el rendimiento es del 90%.
Como podemos observar, el método más efectivo es CSMA/CD. Con una elevada velocidad de transmisión y en un canal suficientemente ancho, se puede hablar de que cada nodo tiene prácticamente en todo momento el acceso a la red.

Bit Error Rate (BER):

Bit Error Rate (BER)
Es la que mide la tasa de errores de un medio de Transmisión.

La forma más común de medir la tasa de errores de un sistema de comunicaciones es mediante el BER (Bit Error Rate), que se define como:

Ber = bits erroneos / bits transmitidos

Un sistema que disponga de un BER de 10-6 se caracteriza por transmitir erróneamente, de media, un bit de cada millón. Evidentemente, cuanto menor sea el BER, mejor es el sistema. Sin embargo, esta figura está íntimamente relacionada con la velocidad de transmisión, ya que un sistema que transmita a 1 Gbps y muestre un BER de 10-6 sufrirá, de media, un error cada milésima de segundo. Por tanto, a mayor velocidad del sistema, menor debe ser la tasa de errores para mantener una buena calidad. En los sistemas actuales, se considera que una cifra de 10-12 es muy buena.

Hay formas estándar internacional para la realización de medidas de BER. Es decir, regulan cómo se deben diseñar los medidores de BER en función de la velocidad de trabajo. Existen equipos comerciales para realizar estas medidas, pero su alto precio difícilmente justifica su compra para dotar un laboratorio ti pico.

Las medidas se pueden realizar en una configuración punto a punto o en bucle.


La configuración en bucle permite que el probador esté ubicado en un sólo equipo, facilitando su diseño.
En cambio, la configuración punto a punto permite probar sistemas ya instalados en los que ambos puntos no se encuentran cerca, como puede ser el caso de un cable de fibra óptica de varios cientos de kilómetros. En esos casos se recurre a dividir el probador en dos equipos: un generador de patrones y el medidor de BER. La única vía de comunicación que existirá entre ambos componentes será el sistema a probar, por lo que debe de haber un consenso sobre qué patrones se van a enviar.





La misión del probador es la de transmitir una serie de patrones de bits y mantener dos
contadores: uno con el número total de bits recibidos y otro con el número de errores. El patrón de bits a transmitir debe ser conocido para que el receptor pueda comparar los bits recibidos con el patrón y decida si está recibiendo el bit correcto o no. Sin embargo, no se puede transmitir una secuencia cualquiera, ya que, además se requiere que simule un tráfico normal.


Medio físico BER
típico
Fibras ópticas < 10-12
LANs de cobre. Radioenlaces fijos (microondas) <10-8
Enlaces telefónicos, satélite, ADSL, CATV <10-5
GSM >10-15



Topologías de red

Las redes de computadoras surgieron como una necesidad de interconectar los diferentes host de una empresa o institución para poder así compartir recursos y equipos específicos. Pero los diferentes componentes que van a formar una red se pueden interconectar o unir de diferentes formas, siendo la forma elegida un factor fundamental que va a determinar el rendimiento y la funcionalidad de la red. La disposición de los diferentes componentes de una red se conoce con el nombre de topología de la red. La topología idónea para una red concreta va a depender de diferentes factores, como el número de máquinas a interconectar, el tipo de acceso al medio físico que deseemos, etc.
Podemos distinguir tres aspectos diferentes a la hora de considerar una topología:

 La topología física, que es la disposición real de las máquinas, dispositivos de red y cableado (los medios) en la red.

 La topología lógica, que es la forma en que las máquinas se comunican a través del medio físico. Los dos tipos más comunes de topologías lógicas son broadcast (Ethernet) y transmisión de tokens (Token Ring).


 La topología matemática, mapas de nodos y enlaces, a menudo formando patrones.

La topología de broadcast simplemente significa que cada host envía sus datos hacia todos los demás hosts del medio de red. Las estaciones no siguen ningún orden para utilizar la red, sino que cada máquina accede a la red para transmitir datos en el momento en que lo necesita. Esta es la forma en que funciona Ethernet.
En cambio, la transmisión de tokens controla el acceso a la red al transmitir un token eléctrico de forma secuencial a cada host. Cuando un host recibe el token significa que puede enviar datos a través de la red. Si el host no tiene ningún dato para enviar, transmite el token hacia el siguiente host y el proceso se vuelve a repetir.


Modelos de topología

Las principales modelos de topología son:


• Topología de bus:

La topología de bus tiene todos sus nodos conectados directamente a un enlace y no tiene ninguna otra conexión entre nodos. Físicamente cada host está conectado a un cable común, por lo que se pueden comunicar directamente, aunque la ruptura del cable hace que los hosts queden desconectados.




La topología de bus permite que todos los dispositivos de la red puedan ver todas las señales de todos los demás dispositivos, lo que puede ser ventajoso si desea que todos los dispositivos obtengan esta información. Sin embargo, puede representar una desventaja, ya que es común que se produzcan problemas de tráfico y colisiones, que se pueden paliar segmentando la red en varias partes. Es la topología más común en pequeñas LAN, con hub o switch final en uno de los extremos.


• Topología de anillo:

Una topología de anillo se compone de un solo anillo cerrado formado por nodos y enlaces, en el que cada nodo está conectado solamente con los dos nodos adyacentes. .





Los dispositivos se conectan directamente entre sí por medio de cables en lo que se denomina una cadena margarita. Para que la información pueda circular, cada estación debe transferir la información a la estación adyacente.

• Topología en anillo doble:

Una topología en anillo doble consta de dos anillos concéntricos, donde cada host de la red está conectado a ambos anillos, aunque los dos anillos no están conectados directamente entre sí. Es análoga a la topología de anillo, con la diferencia de que, para incrementar la confiabilidad y flexibilidad de la red, hay un segundo anillo redundante que conecta los mismos dispositivos. La topología de anillo doble actúa como si fueran dos anillos independientes, de los cuales se usa solamente uno por vez.

• Topología en estrella:

La topología en estrella tiene un nodo central desde el que se irradian todos los enlaces hacia los demás nodos. Por el nodo central, generalmente ocupado por un hub, pasa toda la información que circula por la red. .




La ventaja principal es que permite que todos los nodos se comuniquen entre sí de manera conveniente. La desventaja principal es que si el nodo central falla, toda la red se desconecta.





• Topología en estrella extendida:

La topología en estrella extendida es igual a la topología en estrella, con la diferencia de que cada nodo que se conecta con el nodo central también es el centro de otra estrella. Generalmente el nodo central está ocupado por un hub o un switch, y los nodos secundarios por hubs. La ventaja de esto es que el cableado es más corto y limita la cantidad de dispositivos que se deben interconectar con cualquier nodo central. La topología en estrella extendida es sumamente jerárquica, y busca que la información se mantenga local. Esta es la forma de conexión utilizada actualmente por el sistema telefónico.

• Topología en árbol

La topología en árbol es similar a la topología en estrella extendida, salvo en que no tiene un nodo central. En cambio, un nodo de enlace troncal, generalmente ocupado por un hub o switch, desde el que se ramifican los demás nodos.




El enlace troncal es un cable con varias capas de ramificaciones, y el flujo de información es jerárquico. Conectado en el otro extremo al enlace troncal generalmente se encuentra un host servidor.







• Topología en malla completa

En una topología de malla completa, cada nodo se enlaza directamente con los demás nodos. Las ventajas son que, como cada todo se conecta físicamente a los demás, creando una conexión redundante, si algún enlace deja de funcionar la información puede circular a través de cualquier cantidad de enlaces hasta llegar a destino. Además, esta topología permite que la información circule por varias rutas a través de la red.




La desventaja física principal es que sólo funciona con una pequeña cantidad de nodos, ya que de lo contrario la cantidad de medios necesarios para los enlaces, y la cantidad de conexiones con los enlaces se torna abrumadora.


Trama de Ethernet:
El corazón del sistema Ethernet es el Frame Ethernet (bloque o trama de Ethernet) utilizado para llevar datos entre los computadores. Este “frame” está compuesto por una serie de bits organizados en varios campos. Estos campos, a su vez, incluyen las direcciones físicas de las interfaces, un campo variable de datos y un campo para el chequeo de errores. Entre los campos, podemos destacar los siguientes:

Principalmente, está el Preámbulo que es un campo de 7 bytes (56 bits) que abarca una serie de bits usada para sincronizar y estabilizar el medio físico antes de iniciar la transmisión de datos. Generalmente, se toma como un patrón para el preámbulo, lo siguiente:
10101010 10101010 10101010 10101010 10101010 10101010 10101010
Esta cantidad de bits se transmiten en orden de izquieda a derecha y en la codificación binaria de Manchester representan una forma de onda periódica.
En segundo lugar, tenemos el SOF (Start Of Frame) “Inicio de Trama o Marco”, que es un campo de 1 byte (8 bits) que posee un patrón de bits de 0 y 1 alternados consecutivamente, y que termina con dos 1 seguidos; estaría entonces representado de la siguiente forma:
10101011
Así haya una colisión o choque durante las dos etapas antes mencionadas (Preámbulo y SOF), el emisor deberá enviar todos los bit de ambas etapas (Preámbulo y SOF) hasta que finalice el SOF.

En tercer lugar, tenemos la Dirección de destino, comprende un campo de 6 bytes (48 bits) que especifica la dirección MAC de tipo EUI-48 hacia la que se envía la trama. La dirección a la que se envía la trama, indistintamente podría ser de una estación cualquiera, multicast o dirección broadcast de la red. En cada caso de estación, ésta debe verificar esta Dirección de destino para decidir si se debe aceptar el paquete entrante o no.
En cuarto lugar está la Dirección de origen, el cual posee un campo de 6 bytes (48 bits) que especifica la dirección MAC de tipo EUI-48 desde la que se envía la trama. El equipo o estación de destino que debe recibir los paquetes conoce de este modo, la dirección de la estación de origen para así poder intercambiar los datos.
Como siguiente tenemos el Tipo, un campo de 2 bytes (16 bits). Este campo es el encargado de identificar el protocolo de red de alto nivel adjunto con el paquete, de la misma manera podría especificar la longitud del campo de los datos. Esta información es asimilada en la capa de enlace de datos.

A continuación están los Datos, este campo es el más amplio de todos, es un campo que posee de 46 a 1500 Bytes de longitud. Cada Byte posee arbitrariamente una serie de valores. Este campo representa la información recibida del nivel de red (la carga útil). Recordemos también que en este campo se incluyen las cabeceras (H3 y H4) de los niveles 3 y 4 que vienen de los niveles superiores.

Como séptimo y último, pero no menos importante, está el FCS (Frame Check Sequence) ó Secuencia de Verificación de Trama, este campo es de 32 bits (4 bytes) que contiene un valor de verificación CRC (Control de Redundancia Cíclica, el cual trabaja con una especie de polinomios distintos el cual compara con unos patrones y determina si hay errores o no en la transmisión). El CRC lo aplica el emisor en toda la trama y luego el receptor calcula ese valor de nuevo y comparando con el emisor determina si hay errores o no.
A modo de resumen, tenemos la siguiente tabla:

Preámbulo SOF Destino Origen Tipo Datos FCS
7 bytes
(56 bits).
Sincroniza y Estabiliza el medio físico. 1 byte
(8bits).
Inicio de la trama. 6 bytes
(48 bits).
Dirección hacia donde se envía la trama. 6 bytes
(48 bits).
Dirección de quien recibe la trama. 2 bytes
(16 bits).
Identifica el protocolo del paquete. 46 a 1500 bytes.
Representa la carga útil. 4 bytes
(32 bits).
Control de errores.



Medios de Transmisión (Cables y Fibras):

El medio de transmisión constituye el soporte físico a través del cual emisor y receptor pueden comunicarse en un sistema de transmisión.

Los medios de transmisión pueden ser guiados y no guiados. En ambos la transmisión se realiza por medio de ondas electromagnéticas.

En un medio guiado las ondas son conducidas (guiadas) a través de un camino físico, mientras que en uno no guiado el medio solo proporciona un soporte para que las ondas se transmitan, pero no las guia.

Como ejemplo de medios guiados tenemos el cable coaxial, la fibra óptica y los cables de pares.

Entre los no guiados tenemos el aire y el vacío.
Dependiendo de la naturaleza del medio, las características y la calidad de transmisión se verán limitadas de forma distinta. Así en un medio guiado será de éste del que dependerán, principalmente, la velocidad de transmisión, el ancho de banda y el espaciado entre repetidores. Sin embargo, en el caso de un medio no guiado resulta más determinante el espectro de frecuencias de la señal transmitida que el propio medio de transmisión en sí mismo.

• Cable Coaxial:

El cable coaxial es un cable formado por dos conductores concéntricos:
Un conductor central o núcleo, formado por un hilo sólido o trenzado de cobre (llamado positivo o vivo), Un conductor exterior en forma de tubo o vaina, y formado por una malla trenzada de cobre o aluminio o bien por un tubo, en caso de cables semirígidos. Este conductor exterior produce un efecto de blindaje y además sirve como retorno de las corrientes.

El primero está separado del segundo por una capa aislante llamada dieléctrico. De la calidad del dieléctrico dependerá principalmente la calidad del cable.
Todo el conjunto puede estar protegido por una cubierta aislante.

Existen múltiples tipos de cable coaxial, cada uno con un diámetro e impedancia diferentes. El cable coaxial no es habitualmente afectado por interferencias externas, y es capaz de lograr altas velocidades de transmisión en largas distancias. Por esa razón, se utiliza en redes de comunicación de banda ancha (cable de televisión) y cables de banda base (Ethernet).

El cable coaxial se reemplaza por la fibra óptica en distancias superiores a varios kilómetros, porque el ancho de banda de esta última es muy superior, lo que justifica su mayor costo y su instalación más delicada.



• Tipos de cable coaxial

Los dieléctricos utilizados para separar el conductor central de la vaina externa definen de manera importante el coeficiente de velocidad, y por lo tanto, la calidad del cable. Entre los materiales más comunes utilizados se encuentran:
Cable coaxial con dieléctrico de aire: se diferencian dos tipos, en unos se utiliza de soporte y de separación entre conductores una espiral de polietileno y en otros existen unos canales o perforaciones a lo largo del cable de modo que el polietileno sea el mínimo imprescindible para la sujeción del conductor central. Son cables que presentan unas atenuaciones muy bajas.
Cable dieléctrico de polietileno celular o esponjoso: presenta más consistencia que el anterior pero también tiene unas pérdidas más elevadas.
Cable coaxial con dieléctricos de polietileno macizo: de mayores atenuaciones que el anterior y se aconseja solamente para conexiones cortas (10-15 m aproximadamente).
Cable con dieléctrico de teflón: tiene pocas pérdidas y se utiliza en microondas.
En redes de área local bajo la norma 10Base2, prácticamente caída en desuso a fines de la década de 1990, se utilizaban dos tipos de cable coaxial: fino y grueso.
Se puede conseguir anchos de banda comprendidos entre corriente contínua (Transportan modos TEM, que no tienen frecuencia de corte inferior) y más de 40 GHz, dependiendo del tipo de cable.
Un ejemplo habitual de su uso para corriente contínua es la alimentación de los amplificadores de antena, compartiendo el cable con la señal de RF.
Los cables coaxiales más comunes son el RG-58 (impedancia de 50 Ohm, fino) y el RG-59 (impedancia de 75 Ohm, fino). El primero es sumamente utilizado en equipos de radioaficionados y CB, el segundo entre las antenas Yagi de recepción de televisión, y el televisor.
 Cable UTP:

Del inglés: Unshielded Twisted Pair, par trenzado sin blindaje o no apantallado) es un tipo de conductor utilizado, principalmente para comunicaciones. Se encuentra normalizado de acuerdo a la norma TIA/EIA-568-B.

Es un cable de cobre, y por tanto conductor de electricidad, que se utiliza para telecomunicaciones y que consta de uno o más pares, ninguno de los cuales está blindado (apantallado). Cada par -Pair- es un conjunto de dos conductores aislados con un recubrimiento plástico; este par se trenza -Twisted- para que la señales transportadas por ambos conductores (de la misma magnitud y sentido contrario) no generen interferencias ni resulten sensibles a emisiones. La U de UTP significa 'sin blindaje' ó 'no apantallado' (Unshielded en su original inglés). Esto quiere decir que este cable no incorpora ninguna malla metálica que rodee ninguno de sus elementos (pares) ni el cable mismo. Esta ausencia tiene ventajas y desventajas. Entre las primeras: el cable es más económico, flexible, delgado y fácil de instalar. Además no necesita mantenimiento, ya que ninguno de sus componentes precisa ser puesto a tierra.

Entre las desventajas: presenta menor protección frente a interferencias electromagnéticas, pero la que ofrece es suficiente para la mayoría de instalaciones.

Se utiliza en telefonía y redes de ordenadores, por ejemplo en LAN Ethernet (10BASE T) y Fast Ethernet (100 BASE TX); actualmente ha empezado a usarse también en redes Gigabit Ethernet. Emplea conectores especiales, denominados RJ (Registered Jack), siendo los más comúnmente utilizados los RJ-11, RJ-12 (ambos de 4 patillas) y RJ-45 (de 8 patillas).
En EE.UU, ocupa el 99% del mercado ya que sus normativas no admiten el cableado blindado. Otra manera de ver los cables UTP: Son unos conductores de información, generalmente en una red LAN. Se puede emplear distintos tipos de trenzados, dependiendo de la manera en que se la quiera realizar.

 Estándares de Cables UTP/STP :

Cat 1: Actualmente no reconocido por TIA/EIA. Previamente usado para comunicaciones telefónicas POTS, ISDN y cableado de timbrado.
Cat 2: Actualmente no reconocido por TIA/EIA. Previamente fue usado con frecuencia en redes token ring de 4 Mbit/s.
Cat 3: Actualmente definido en TIA/EIA-568-B, usado para redes de datos usando frecuencias de hasta 16 MHz. Historicamente popular (y todavía usado) para redes ethernet de 10 Mbit/s.
Cat 4: Actualmente no reconocido por TIA/EIA. Posee performance de hasta 20 MHz, y fue frecuentemente usado en redes token ring de 16 Mbit/s.
Cat 5: Actualmente no reconocido por TIA/EIA. Posee performance de hasta 100 MHz, y es frecuentemente usado en redes ethernet de 100 Mbit/s ethernet networks. Es posible usarlo para ethernet de gigabit 1000BASE-T.
Cat 5e: Actualmente definido en TIA/EIA-568-B. Posee performance de hasta 100 MHz, y es frecuentemente usado tanto para ethernet 100 Mbit/s como para ethernet 1000 Mbit/s (gigabit).
Cat 6: Actualmente definido en TIA/EIA-568-B. Posee performance de hasta 250 MHz, más del doble que las categorías 5 y 5e. Usado principalmente para Gigabit
Cat 6a: Especificacíon futura para aplicaciones de 10 Gbit/s.
Cat 7: Nombre informal aplicado a cableado de clase F de ISO/IEC 11801. Este estándar especifica 4 pares blindados individualmente dentro de otro blindaje. Diseñado para transmisión a frecuencias de hasta 600 MHz.
Existen varias opciones para el estándar 802,3 que se diferencian por velocidad, tipo de cable y distancia de transmisión.
10Base-T: Cable de par trenzado con una longitud aproximada de 500 mts, a una velocidad de 10 mbps.
1Base-5: Cable de par trenzado con una longitud extrema de 500 mts, a una velocidad de 1 mbps.
100Base-T: (Ethernet Rápida) Cable de par trenzado, nuevo estándar que soporta velocidades de 100 mbps que utiliza el método de acceso CSMA/CD.
100VG AnyLan: Nuevo estándar Ethernet que soporta velocidades de 100 mbps utilizando un nuevo método de acceso por prioridad de demandas sobre configuraciones de cableado par trenzado.



 Cable STP:

STP, acrónimo de Shielded Twisted Pair o Par Trenzado Apantallado. El cable de par trenzado apantallado es justamente lo que su nombre implica: cables de cobre aislados dentro de una cubierta protectora, con un número específico de trenzas por pie. STP se refiere a la cantidad de aislamiento alrededor del conjunto de cables y, por lo tanto, a su inmunidad al ruido al contrario que UTP (Unshielded Twisted Pair, "Par trenzado sin apantallar") que no dispone de dicho aislamiento.
Se emplea en redes de ordenadores como Ethernet o Token Ring. Es más caro que la versión no apantallada, UTP




 Concepto de Fibra Óptica
Los circuitos de fibra óptica son filamentos de vidrio (compuestos de cristales naturales) o plástico (cristales artificiales), del espesor de un pelo (entre 10 y 300 micrones). Llevan mensajes en forma de haces de luz que realmente pasan a través de ellos de un extremo a otro, donde quiera que el filamento vaya (incluyendo curvas y esquinas) sin interrupción.
Las fibras ópticas pueden ahora usarse como los alambres de cobre convencionales, tanto en pequeños ambientes autónomos (tales como sistemas de procesamiento de datos de aviones), como en grandes redes geográficas (como los sistemas de largas líneas urbanas mantenidos por compañías telefónicas).




 ¿Cómo funciona la Fibra Óptica?

En un sistema de transmisión por fibra óptica existe un transmisor que se encarga de transformar las ondas electromagnéticas en energía óptica o en luminosa, por ello se le considera el componente activo de este proceso.
Una vez que es transmitida la señal luminosa por las minúsculas fibras, en otro extremo del circuito se encuentra un tercer componente al que se le denomina detector óptico o receptor, cuya misión consiste en transformar la señal luminosa en energía electromagnética, similar a la señal original. El sistema básico de transmisión se compone en este orden, de señal de entrada, amplificador, fuente de luz, corrector óptico, línea de fibra óptica (primer tramo ), empalme, línea de fibra óptica (segundo tramo), corrector óptico, receptor, amplificador y señal de salida.

En resumen, se puede decir que este proceso de comunicación, la fibra óptica funciona como medio de transportación de la señal luminosa, generado por el transmisor de LED’S (diodos emisores de luz) y láser.

Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la transmisión mediante fibra óptica, debido a que su salida se puede controlar rápidamente por medio de una corriente de polarización. Además su pequeño tamaño, su luminosidad, longitud de onda y el bajo voltaje necesario para manejarlos son características atractivas.

 COMPONENTES Y TIPOS DE FIBRA ÓPTICA

Componentes de la Fibra Óptica

• El Núcleo: En sílice, cuarzo fundido o plástico - en el cual se propagan las ondas ópticas. Diámetro: 50 o 62,5 um para la fibra multimodo y 9um para la fibra monomodo.

• La Funda Óptica: Generalmente de los mismos materiales que el núcleo pero con aditivos que confinan las ondas ópticas en el núcleo.

• El revestimiento de protección: por lo general esta fabricado en plástico y asegura la protección mecánica de la fibra.



Tipos de Fibra Óptica:

• Fibra Monomodo:

Potencialmente, esta es la fibra que ofrece la mayor capacidad de transporte de información. Tiene una banda de paso del orden de los 100 GHz/km. Los mayores flujos se consiguen con esta fibra, pero también es la más compleja de implantar. El dibujo muestra que sólo pueden ser transmitidos los rayos que tienen una trayectoria que sigue el eje de la fibra, por lo que se ha ganado el nombre de "monomodo" (modo de propagación, o camino del haz luminoso, único). Son fibras que tienen el diámetro del núcleo en el mismo orden de magnitud que la longitud de onda de las señales ópticas que transmiten, es decir, de unos 5 a 8 m m. Si el núcleo está constituido de un material cuyo índice de refracción es muy diferente al de la cubierta, entonces se habla de fibras monomodo de índice escalonado. Los elevados flujos que se pueden alcanzar constituyen la principal ventaja de las fibras monomodo, ya que sus pequeñas dimensiones implican un manejo delicado y entrañan dificultades de conexión que aún se dominan mal.


• Fibra Multimodo de Índice Gradiante Gradual:

Las fibras multimodo de índice de gradiente gradual tienen una banda de paso que llega hasta los 500MHz por kilómetro. Su principio se basa en que el índice de refracción en el interior del núcleo no es único y decrece cuando se desplaza del núcleo hacia la cubierta. Los rayos luminosos se encuentran enfocados hacia el eje de la fibra, como se puede ver en el dibujo. Estas fibras permiten reducir la dispersión entre los diferentes modos de propagación a través del núcleo de la fibra.
La fibra multimodo de índice de gradiente gradual de tamaño 62,5/125 m (diámetro del núcleo/diámetro de la cubierta) está normalizado, pero se pueden encontrar otros tipos de fibras:

Multimodo de índice escalonado 100/140 mm.
Multimodo de índice de gradiente gradual 50/125 m m.




• Fibra Multimodo de índice escalonado:

Las fibras multimodo de índice escalonado están fabricadas a base de vidrio, con una atenuación de 30 dB/km, o plástico, con una atenuación de 100 dB/km. Tienen una banda de paso que llega hasta los 40 MHz por kilómetro. En estas fibras, el núcleo está constituido por un material uniforme cuyo índice de refracción es claramente superior al de la cubierta que lo rodea. El paso desde el núcleo hasta la cubierta conlleva por tanto una variación brutal del índice, de ahí su nombre de índice escalonado.




• ¿ Qué tipo de conectores usa ?

Con la Fibra Óptica se puede usar Acopladores y Conectores:

Acopladores:

Un acoplador es básicamente la transición mecánica necesaria para poder dar continuidad al paso de luz del extremo conectorizado de un cable de fibra óptica a otro. Pueden ser provistos también acopladores de tipo "Híbridos", que permiten acoplar dos diseños distintos de conector, uno de cada lado, condicionado a la coincidencia del perfil del pulido.


Conectores:

 Se recomienda el conector 568SC pues este mantiene la polaridad. La posición correspondiente a los dos conectores del 568SC en su adaptador, se denominan como A y B. Esto ayuda a mantener la polaridad correcta en el sistema de cableado y permite al adaptador a implementar polaridad inversa acertada de pares entre los conectores.

 Sistemas con conectores BFOC/2.5 y adaptadores (Tipo ST) instalados pueden seguir siendo utilizados en plataformas actuales y futuras.
Identificación: Conectores y adaptadores Multimodo se representan por el color marfil Conectores y adaptadores Monomodo se representan por el color azul.

Para la terminación de una fibra óptica es necesario utilizar conectores o empalmar Pigtails (cables armados con conector) por medio de fusión. Para el caso de conectorización se encuentran distintos tipos de conectores dependiendo el uso y l normativa mundial usada y sus características.

ST conector de Fibra para Monomodo o Multimodo con uso habitual en Redes de Datos y equipos de Networking locales en forma Multimodo.


FC conector de Fibra Óptica para Monomodo o Multimodo con uso habitual en telefonía y CATV en formato Monomodo y Monomodo Angular.-


SC conector de Fibra óptica para Monomodo y Multimodo con uso habitual en telefonía en formato monomodo.


• VENTAJAS Y DESVENTAJAS DE LA FIBRA ÓPTICA

VENTAJAS
La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps.
Acceso ilimitado y continuo las 24 horas del día, sin congestiones.
Video y sonido en tiempo real.
Fácil de instalar.
Es inmune al ruido y las interferencias, como ocurre cuando un alambre telefónico pierde parte de su señal a otra.
Las fibras no pierden luz, por lo que la transmisión es también segura y no puede ser perturbada.
Carencia de señales eléctricas en la fibra, por lo que no pueden dar sacudidas ni otros peligros. Son convenientes para trabajar en ambientes explosivos.
Presenta dimensiones más reducidas que los medios preexistentes.
El peso del cable de fibras ópticas es muy inferior al de los cables metálicos, capaz de llevar un gran número de señales.
La materia prima para fabricarla es abundante en la naturaleza.
Compatibilidad con la tecnología digital.

DESVENTAJAS
Sólo pueden suscribirse las personas que viven en las zonas de la ciudad por las cuales ya esté instalada la red de fibra óptica.
El coste es alto en la conexión de fibra óptica, las empresas no cobran por tiempo de utilización sino por cantidad de información transferida al computador, que se mide en megabytes.
El coste de instalación es elevado.
Fragilidad de las fibras.
Disponibilidad limitada de conectores.
Dificultad de reparar un cable de fibras roto en el campo.


• APLICACIONES DE LA FIBRA ÓPTICA

 Internet
El servicio de conexión a Internet por fibra óptica, derriba la mayor limitación del ciberespacio: su exasperante lentitud. El propósito del siguiente artículo es describir el mecanismo de acción, las ventajas y sus desventajas.
Para navegar por la red mundial de redes, Internet, no sólo se necesitan un computador, un módem y algunos programas, sino también una gran dosis de paciencia. El ciberespacio es un mundo lento hasta el desespero. Un usuario puede pasar varios minutos esperando a que se cargue una página o varias horas tratando de bajar un programa de la Red a su PC.
Esto se debe a que las líneas telefónicas, el medio que utiliza la mayoría de los 50 millones de usuarios para conectarse a Internet, no fueron creadas para transportar videos, gráficas, textos y todos los demás elementos que viajan de un lado a otro en la Red.

Pero las líneas telefónicas no son la única vía hacia el ciberespacio. Recientemente un servicio permite conectarse a Internet a través de la fibra óptica.
La fibra óptica hace posible navegar por Internet a una velocidad de dos millones de bps, impensable en el sistema convencional, en el que la mayoría de usuarios se conecta a 28.000 0 33.600 bps.

 Redes

La fibra óptica se emplea cada vez más en la comunicación, debido a que las ondas de luz tienen una frecuencia alta y la capacidad de una señal para transportar información aumenta con la frecuencia. En las redes de comunicaciones se emplean sistemas de láser con fibra óptica. Hoy funcionan muchas redes de fibra para comunicación a larga distancia, que proporcionan conexiones transcontinentales y transoceánicas. Una ventaja de los sistemas de fibra óptica es la gran distancia que puede recorrer una señal antes de necesitar un repetidor para recuperar su intensidad. En la actualidad, los repetidores de fibra óptica están separados entre sí unos 100 km, frente a aproximadamente 1,5 km en los sistemas eléctricos. Los amplificadores de fibra óptica recientemente desarrollados pueden aumentar todavía más esta distancia.
Otra aplicación cada vez más extendida de la fibra óptica son las redes de área local. Al contrario que las comunicaciones de larga distancia, estos sistemas conectan a una serie de abonados locales con equipos centralizados como ordenadores (computadoras) o impresoras. Este sistema aumenta el rendimiento de los equipos y permite fácilmente la incorporación a la red de nuevos usuarios. El desarrollo de nuevos componentes electroópticos y de óptica integrada aumentará aún más la capacidad de los sistemas de fibra.
Red de área local o LAN, conjunto de ordenadores que pueden compartir datos, aplicaciones y recursos (por ejemplo impresoras). Las computadoras de una red de área local (LAN, Local Area Network) están separadas por distancias de hasta unos pocos kilómetros, y suelen usarse en oficinas o campus universitarios. Una LAN permite la transferencia rápida y eficaz de información en el seno de un grupo de usuarios y reduce los costes de explotación.
Otros recursos informáticos conectados son las redes de área amplia (WAN, Wide Area Network) o las centralitas particulares (PBX). Las WAN son similares a las LAN, pero conectan entre sí ordenadores separados por distancias mayores, situados en distintos lugares de un país o en diferentes países; emplean equipo físico especializado y costoso y arriendan los servicios de comunicaciones. Las PBX proporcionan conexiones informáticas continuas para la transferencia de datos especializados como transmisiones telefónicas, pero no resultan adecuadas para emitir y recibir los picos de datos de corta duración empleados por la mayoría de las aplicaciones informáticas.
Las redes de comunicación públicas están divididas en diferentes niveles; conforme al funcionamiento, a la capacidad de transmisión, así como al alcance que definen. Por ejemplo, si está aproximándose desde el exterior hacia el interior de una gran ciudad, se tiene primeramente la red interurbana y red provicional, a continuación las líneas prolongadas aportadoras de tráfico de más baja capacidad procedente de áreas alejadas (red rural), hacia el centro la red urbana y finalmente las líneas de abonado. Los parámetros dictados por la práctica son el tramo de transmisión que es posible cubrir y la velocidad binaria específica así como el tipo de fibra óptica apropiado, es decir, cables con fibras monomodo ó multimodo.

 Telefonía

Con motivo de la normalización de interfaces existentes, se dispone de los sistemas de transmisión por fibra óptica para los niveles de la red de telecomunicaciones públicas en una amplia aplicación, contrariamente para sistemas de la red de abonado (línea de abonado), hay ante todo una serie de consideraciones.
Para la conexión de un teléfono es completamente suficiente con los conductores de cobre existentes. Precisamente con la implantación de los servicios en banda ancha como la videoconferencia, la videotelefonía, etc, la fibra óptica se hará imprescindible para el abonado. Con el BIGFON (red urbana integrada de telecomunicaciones en banda ancha por fibra óptica) se han recopilado amplias experiencias en este aspecto. Según la estrategia elaborada, los servicios de banda ancha posteriormente se ampliarán con los servicios de distribución de radio y de televisión en una red de telecomunicaciones integrada en banda ancha (IBFN).

Elementos componentes de la arquitectura de Ethernet:

• 10Base-5

10 Mbit/s sobre cable coaxial grueso (thicknet). Longitud máxima del segmento 500 metros.
También conocida como Thick Ethernet (Ethernet grueso), es la Ethernet original. Fue desarrollada originalmente a finales de los años 1970 pero no se estandarizó oficialmente hasta 1983. Utiliza una topología en bus, con un cable coaxial que conecta todos los nodos entre sí. En cada extremo del cable tiene que llevar un terminador. Cada nodo se conecta al cable con un dispositivo llamado transceptor.

El término transceptor se aplica a un dispositivo que realiza, dentro de una misma caja o chasis, funciones tanto de transmisión como de recepción, utilizando componentes de circuito comunes para ambas funciones. Dado que determinados elementos se utilizan tanto para la transmisión como para la recepción, la comunicación que provee un transceptor solo puede ser semiduplex, lo que significa que pueden enviarse señales entre dos terminales en ambos sentidos, pero no simultáneamente.

El cable usado es relativamente grueso (10mm) y rígido. Sin embargo es muy resistente a interferencias externas y tiene pocas pérdidas. Se le conoce con el nombre de RG8 o RG11 y tiene una impedancia de 50 ohmios. Se puede usar conjuntamente con el 10Base2.






• 10Base-2

10 Mbit/s sobre coaxial fino (thinnet o cheapernet). Longitud máxima del segmento 185 metros.

Es una de las variantes de Ethernet, en algunos textos referenciado como thinnet debido al uso de cable coaxial delgado (RG-58). La tecnología 10Base-2 se introdujo en 1985. La instalación fue más sencilla debido a su menor tamaño y peso, y por su mayor flexibilidad. Todavía existen en redes de este tipo, como 10BASE5, la cual no es recomendable para la instalación de redes hoy en día. Tiene un costo bajo y carece de la necesidad de hubs. Además, las NIC son difíciles de conseguir para este medio.
10BASE2 usa la codificación Manchester también. Los computadores en la LAN se conectaban entre sí con una serie de tendidos de cable coaxial sin interrupciones. Se usaban conectores BNC para unir estos tendidos a un conector en forma de T en la NIC.

10BASE2 tiene un conductor central trenzado. Cada uno de los cinco segmentos máximos de cable coaxial delgado puede tener hasta 185 metros de longitud y cada estación se conecta directamente al conector BNC con forma de "T" del cable coaxial.

Sólo una estación puede transmitir a la vez, de lo contrario, se produce una colisión. 10BASE2 también usa half-duplex. La máxima velocidad de transmisión de 10BASE2 es de 10 Mbps.
Puede haber hasta 30 estaciones en cada segmento individual de 10BASE2. De los cinco segmentos consecutivos en serie que se encuentran entre dos estaciones lejanas, sólo tres pueden tener estaciones conectadas.

• 10Base-T

10 Mbit/s sobre par trenzado (UTP). Longitud máxima del segmento 100 metros.
Son las LAN más comunes hoy en día. Mediante este sistema se palían los conocidos defectos de las redes 10Base2 y 10Base5, entre ellos, la mala detección de derivaciones no deseadas, de rupturas y de conectores flojos. Como desventaja la instalación conectada mediante hubs pueden resultar cara y complicarse bastante para redes complejas.


De su nombre 10BASE-T se extraen varias características de este medio, 10 indica la velocidad de transmisión en Megabits por segundo (Mb/s), BASE es la abreviatura de banda base y la T por utilizar cables de par trenzado. Concretamente el cable utilizado, UTP de categoría 3 (25 MHz en longitudes de 100 m.), consta de cuatro pares trenzados sin apantallamiento, de los cuales al menos un par se utilizará para transmisión y otro para recepción.

La máxima longitud del dominio de colisión (con repetidores) alcanza hasta 2500m usando un backbone coaxial y el máximo número de estaciones en el dominio de colisión aceptadas es de 1024. El cable se conecta mediante un conector RJ-45 a la tarjeta de red en el PC. Cada estación está conectada con un hub o concentrador central siguiendo una topología de estrella o estrella extendida, aunque funciona como un bus lógico. Existen hubs con diferentes configuraciones, con 4, 8, 12, 15 o 24 puertos RJ-45, e incluso la posibilidad de conectar cable de tipo Ethernet 10Base2 u otros.
• 10Base-F

10 Mbit/s sobre fibra óptica. Longitud máxima del segmento 1000 metros.
10BaseF utiliza fibra óptica como medio de transmisión para redes Ethernet a una velocidad de 10 Mbps.

El número 10 hace referencia a la velocidad de transmisión, la palabra base hace referencia al método de transmisión (banda base), y la letra 'F' hace referencia al medio de transmisión (fibra óptica).

• 100Base-TX

Fast Ethernet a 100 Mbit/s con auto-negociación de velocidad. 100Base-TX es la forma predominante de Fast Ethernet a 100Mbit/s.
La configuración de las redes 100Base-TX es muy similar a la 10Base-T. Cuando se usa para crear una red de área local, los dispositivos de la red (computadoras, impresoras, etc.) suelen conectarse a un hub o a un switch, formando así una red en topología de estrella. También pueden conectarse dos dispositivos directamente utilizando un cable de cruce.

Utiliza cables de cat5 con dos pares de hilos. Los pares adecuados son el naranja y el verde (segundo y tercer par) en los estándares y terminaciones TIA/EIA-568-B T568A o T568B. Estos pares usan los pines 1, 2, 3 y 6. En el T568A y T568B, los hilos están en el orden 1, 2, 3, 4, 5, 6, 7, 8 en cada extremo.el orden de colores será verde/blanco, verde, naranja/blanco, azul, azul/blanco, naranja, marrón/blanco y marrón para el T568A, y naranja/blanco, naranja, verde/blanco, azul, azul/blanco, verde, marrón/blanco y marrón para el T568B. cada segmento de la red puede tener una longitud máxima de 100 metros.
• 100Base-FX:

 100BASE-FX es una versión de Fast Ethernet sobre fibra óptica. Utiliza dos filamentos de fibra óptica multi-modo para recepción y transmisión. También se le conoce como la versión en fibra óptica del 100BASE-TX. La longitud máxima es de 400 metros para las conexiones half-duplex (para asegurarse de que las colisiones son detectadas) o 2 kilómetros para full-duplex. 100base-fx no es compatible con 10BASE-FL, la versión de 10 Mbit/s sobre fibra óptica. Utiliza una longitud de onda de luz infrarroja cercano a los 1.3 micrómetros.

 100BASE-FX: Especificación Fast Ethernet de banda base de 100 Mbps que usa dos hebras de cable de fibra óptica multimodo por enlace. Para garantizar una temporización de señal adecuada, el enlace 100BASE-FX no puede exceder una longitud de 400 metros. Basado en el estándar IEEE 802.3.

• 1000Base-T:

Es un estándar para redes de área local del tipo Gigabit Ethernet sobre cable de cobre trenzado sin apantallamiento. Fue aprobado por el IEEE 802.3 en 1999.
A diferencia de 10Base-T o 100Base-TX, emplea todos los cuatro pares de hilos del cable, transmitiendo simultáneamente en ambos sentidos y por cada uno de ellos. Se multiplica así por ocho la velocidad de modulación, a costa de aplicar un sistema electrónico de cancelación de eco. Puede funcionar sobre cable de categoría 5 mejorado (UTP 5e) o superior.

Conforme a las normas de cableado estructurado (ISO/IEC 11801), cada segmento de red puede tener una longitud máxima de 100 m, repartidos entre la instalación fija (hasta 90 m de cable rígido) y las conexiones al ordenador, o en el rack o panel de distribución (10 m de latiguillos, de cable flexible).

Emplea una modulación por amplitud de pulsos con señales de 5 niveles denominada PAM-5 para alcanzar la velocidad de 1 Gb/s en modo full duplex.
La secuencia de bits procedente de la subcapa MAC se aleatoriza y se codifica con un sistema de corrección automática de errores FEC, obteniendo los grupos de símbolos PAM5 que se envían sobre los 4 pares simultáneamente. En cada par, cuatro de los cinco símbolos representan 2 bits de datos; el quinto contiene la información FEC y permite recuperar pérdidas de información causadas por ruido.
Las Tarjetas de Red

Las tarjetas de red Ethernet utilizan conectores RJ-45 (10/100/1000) BNC (10), AUI (10), MII (100), GMII (1000). El caso más habitual es el de la tarjeta o placa madre con un conector RJ-45, aunque durante la transición del uso mayoritario de cable coaxial (10 Mbps) a par trenzado (100 Mbps) abundaron las tarjetas con conectores BNC y RJ-45 e incluso BNC / AUI / RJ-45 (en muchas de ellas se pueden ver serigrafiados los conectores no usados). Con la entrada de las redes Gigabit y el que en las casas sea frecuente la presencias de varios ordenadores comienzan a verse tarjetas y placas base con 2 y hasta 4 puertos RJ-45, algo antes reservado a los servidores.

Pueden variar en función de la velocidad de transmisión, normalmente 10 Mbps ó 10/100 Mbps. Actualmente se están empezando a utilizar las de 1000 Mbps, también conocida como Gigabit Ethernet y en algunos casos 10 Gigabit Ethernet, utilizando también cable de par trenzado, pero de categoría 6, 6e y 7 que trabajan a frecuencias más altas.

• Puente de red (Bridge)

Un puente o bridge es un dispositivo de interconexión de redes de ordenadores que opera en la capa 2 (nivel de enlace de datos) del modelo OSI. Este interconecta dos segmentos de red (o divide una red en segmentos) haciendo el pasaje de datos de una red para otra, con base en la dirección física de destino de cada paquete.
Un bridge conecta dos segmentos de red como una sola red usando el mismo protocolo de establecimiento de red.

Funciona a través de una tabla de direcciones MAC detectadas en cada segmento a que está conectado. Cuando detecta que un nodo de uno de los segmentos está intentando transmitir datos a un nodo del otro, el bridge copia la trama para la otra subred. Por utilizar este mecanismo de aprendizaje automático, los bridges no necesitan configuración manual.
La principal diferencia entre un bridge y un hub es que el segundo pasa cualquier trama con cualquier destino para todos los otros nodos conectados, en cambio el primero sólo pasa las tramas pertenecientes a cada segmento. Esta característica mejora el rendimiento de las redes al disminuir el tráfico inútil. Para hacer el bridging o interconexión de más de 2 redes, se utilizan los switches.


• Conmutador (Switch)

Un switch (en castellano "conmutador") es un dispositivo electrónico de interconexión de redes de ordenadores que opera en la capa 2 (nivel de enlace de datos) del modelo OSI (Open Systems Interconnection). Un conmutador interconecta dos o más segmentos de red, funcionando de manera similar a los puentes (bridges), pasando datos de un segmento a otro, de acuerdo con la dirección MAC de destino de los datagramas en la red.

Los conmutadores se utilizan cuando se desea conectar múltiples redes, fusionándolas en una sola. Al igual que los puentes, dado que funcionan como un filtro en la red, mejoran el rendimiento y la seguridad de las LANs (Local Area Network- Red de Área Local).

Interconexión de conmutadores y puentes: Los puentes (bridges) y conmutadores (switches) pueden ser conectados unos a los otros, pero existe una regla que dice que sólo puede existir un único camino entre dos puntos de la red. En caso de que no se siga esta regla, se forma un bucle en la red, que produce la transmisión infinita de datagramas de una red a otra.
• Concentrador (Hub)
Un concentrador es un dispositivo que permite centralizar el cableado de una red. También conocido con el nombre de hub.

Un concentrador funciona repitiendo cada paquete de datos en cada uno de los puertos con los que cuenta, excepto en el que ha recibido el paquete, de forma que todos los puntos tienen acceso a los datos. También se encarga de enviar una señal de choque a todos los puertos si detecta una colisión. Son la base para las redes de topología tipo estrella. Como alternativa existen los sistemas en los que los ordenadores están conectados en serie, es decir, a una línea que une varios o todos los ordenadores entre sí, antes de llegar al ordenador central. Llamado también repetidor multipuerto, existen 3 clases:

 Pasivo: No necesita energía eléctrica.
 Activo: Necesita alimentación.
 Inteligente: También llamados smart hubs son hubs activos que incluyen microprocesador.



Dentro del modelo OSI el concentrador opera a nivel de la capa física, al igual que los repetidores, y puede ser implementado utilizando únicamente tecnología analógica. Simplemente une conexiones y no altera las tramas que le llegan.

Visto lo anterior podemos sacar las siguientes conclusiones:
El concentrador envía información a ordenadores que no están interesados. A este nivel sólo hay un destinatario de la información, pero para asegurarse de que la recibe el concentrador envía la información a todos los ordenadores que están conectados a él, así seguro que acierta.

Este tráfico añadido genera más probabilidades de colisión. Una colisión se produce cuando un ordenador quiere enviar información y emite de forma simultánea con otro ordenador que hace lo mismo. Al chocar los dos mensajes se pierden y es necesario retransmitir. Además, a medida que añadimos ordenadores a la red también aumentan las probabilidades de colisión.

Un concentrador funciona a la velocidad del dispositivo más lento de la red. Si observamos cómo funciona vemos que el concentrador no tiene capacidad de almacenar nada. Por lo tanto si un ordenador que emite a 100 megabit/segundo le trasmitiera a otro de 10 megabit/segundo algo se perdería del mensaje. En el caso del ADSL los routers suelen funcionar a 10 megabit/segundo, si lo conectamos a nuestra red casera, toda la red funcionará a 10 megabit/segundo, aunque nuestras tarjetas sean 10/100 megabit/segundo.

Un concentrador es un dispositivo simple, esto influye en dos características. El precio es barato. Un concentrador casi no añade ningún retardo a los mensajes.
Los concentradores fueron muy populares hasta que se abarataron los switch que tienen una función similar pero proporcionan más seguridad contra programas como los sniffer. La disponibilidad de switches ethernet de bajo precio ha dejado obsoletos, pero aún se pueden encontrar en instalaciones antiguas y en aplicaciones especializadas.






Velocidades de Trabajo:

Esencialmente las redes Ethernet se dividen en 3 categorías y las velocidades de cada una son las siguientes:

• Ethernet a 10 Mbps

La red Ethernet es una especificación de LAN banda base inventada por la empresa Xerox Corp., que opera a 10 Mbps y utiliza CSMA/CD (Método de Acceso Múltiple con Detección de Portadora) a través de cable coaxial. Ethernet fu

• Ethernet a 100 Mbps

También conocida como Fast Ethernet, que opera a 100 Mbps a través de cable de par trenzado. Es una tecnología LAN a alta velocidad, que ofrece un ancho de banda adicional a los usuarios de computadoras de escritorio en el centro de cableado, así como a servidores y grupos de servidores (a los cuales se suele llamar granjas de servidores), en los centros de datos.

El grupo de estudio de la red Ethernet a alta velocidad del IEEE se formó para estudiar la factibilidad de operar Ethernet a velocidades de 100 Mbps. El grupo de estudio estableció varios objetivos para esta nueva red Ethernet de alta velocidad, pero no llegó a un acuerdo en cuanto a el método de acceso. Uno de los principales problemas fue determinar si esta nueva red Ethernet, más rápida, soportaría el método CSMA/CD u otro método de acceso.

• Ethernet a 1000 Mbps

Es una sola especificación LAN, también conocida como Gigabit Ethernet, que opera a 1000 Mbps (1 Gbps) a través de cables de fibra óptica y de par trenzado.
Gigabit Ethernet es una extensión del estándar de Ethernet IEEE 802.3. Opera a 1000 Mbps netos de ancho de banda para datos, a la vez que conserva la compatibilidad con los dispositivos de red de Ethernet y Fast Ethernet. La red Ethernet Gigabit ofrece nuevos modos de operación dúplex total para conexiones switch a switch y switch a estación terminal. Asimismo, permite modos de operación semidúplex para conexiones compartidas utilizando repetidores y CSMA/CD. Además la red Ethernet Gigabit utiliza el mimso formato y tamaño de trama y los mismos objetos de administración que se utilizan en las redes IEEE 802.3 existentes. En general, se espera que opere inicialmente a través de cableado de fibra óptica, sin embargo, se implementará con cable UTP (Par Trenzado Sin Blindaje) categoría 5 y también cable coaxial.

Una empresa que produce artículos electrónicos está planificando la producción televisores, radios y walkman para el próximo mes. Un televisor necesita 5 horas de tiempo de producción
Seguridad
Esta es un tema interesante para la discusión. En el caso de la seguridad Ethernet existen muy pocos artículos o comentarios a cerca de esto. Muchos se preguntarán el porque de esto, pero es sencillamente debido a que el Ethernet es una red realizada a través de cable, es una red cableada que según su tipo puede ser LAN, WAN, etc, por lo tanto, obviamente, la Ethernet será segura en la medida que la capa física (el cable propiamente dicho), este fuera del alcance de los invasores.


















Bibliografía

www.google.com
http://wikipedia.org
Consultamos el libro:
• Redes de computadoras Andrew S. Tanenbaum