El aumento de las prestaciones requeridas por los usuarios de computadora exige un replanteo de los componentes básicos que integran los modelos actuales. El bus PCI es un ejemplo: fue el sistema nervioso de las PCs durante años, pero ahora urge su reemplazo, como ocurrió con el disquete. Lo más interesante es que, alrededor de esta necesidad de cambio, se generan disputas entre las empresas que intentan tomar la delantera.
Procesadores: Hacia los 64 bits
El futuro de los procesadores para PC se aproxima a un cambio fundamental. Aunque la revolución de los 32 bits continúa, en los próximos dos años se instalará la era de los 64 bits. El cambio se producirá en torno a dos arquitecturas rivales: IA 64 de Intel, presente en el chip Itanium, y x86-64, en la que AMD basa su chip Hammer.
Si bien los servidores y las estaciones de trabajo disponen de procesadores de 64 bits desde hace un par de años (los chips de HP, Sun y Compaq/Digital representan a este sector), este tipo de potencia llegará a la PC de la mano de las dos principales empresas.
Mientras tanto, seguirán saliendo procesadores de 32 bits de gran rendimiento y varios GHz. El Pentium 4 tendrá una larga vida, y posiblemente llegue al umbral de los 10 GHz. Por su parte, AMD reemplazará al Athlon con Clawhammer, la versión de 32 bits de la familia Hammer.
Memoria: Para todos los gustos
En 2001, florecieron dos tecnologías de memoria que se usarán durante los próximos tres o cuatro años: DDR SDRAM (que funciona con un bus de 64 bits, como la SDRAM PC100 y la PC133, y se utiliza con los chips de AMD) y RDRAM (impulsada por Intel y Rambus y usada en los motherboards para Pentium 4, utiliza un bus de 16 bits a 400 MHz para obtener una ancho de banda de 3,2 GB/seg.).
Además del aumento de velocidad, el futuro de la memoria incluye el lanzamiento de un nuevo tipo de MRAM (memoria de acceso aleatorio magnetorresistente), responsabilidad de Motorola. Se trata de una memoria persistente que guarda los datos aun cuando la PC se apaga, con lo cual será posible eliminar algunas pequeñas molestias (como el inicio lento). Por último, el cambio más revolucionario será el abandono de los chips de cobre o aluminio como medio de almacenamiento. La clave puede estar en la holografía, o en sistemas multicapa de estado sólido (científicos japoneses consiguieron almacenar datos en un cubo de vidrio), tecnología todavía en laboratorio.
Buses: El debate por la nueva PC
Uno de los conflictos más importantes en cuanto a buses tiene que ver con el modo de transferencia de datos dentro del motherboard, y la conexión de los periféricos a la PC. De hecho, el viejo y noble PCI de 32 bits a 33 MHz representa un cuello de botella para la gran cantidad de información que se necesita “mover”.
Para hacer frente a esta necesidad de renovación en cuanto a la transferencia de datos interna, existen dos alternativas: HyperTransport de AMD (que provee hasta 6,4 GB/seg. de ancho de banda, y puede usarse en servidores, redes, productos de comunicaciones y routers, gráficos y chipsets de motherboards), y 3GIO de Intel (que alcanza frecuencias de reloj de hasta 10 GHz y más, para ser útil a las CPUs de la próxima década, y usa enlaces ópticos).
Más allá de cómo se mueven los datos dentro de la PC, también es importante conocer la futura conexión de los dispositivos externos a la PC. En este ámbito, también figuran dos postulantes. Por un lado, USB 2.0 de Intel, cuya velocidad de transferencia llega a los 60 MB/seg. (40 veces más rápida que el estándar actual), permite conectar hasta 127 dispositivos en serie a un mismo puerto. Por el otro, FireWire de Apple (interfase serie también conocida como IEEE 1394 o como iLink en los productos de Sony) alcanza entre 25 y 50 MB/seg.
Monitores: Cada día más reales
Los monitores sufren cambios en tanto y en cuanto evolucionan los sistemas tradicionales (CRT y LCD), y se desarrollan nuevas tecnologías. Así, por un lado, se está mejorando la producción de las pantallas convencionales, lo cual abarata costos de fabricación y, posibilita la incorporación de funciones adicionales. Por ejemplo, el sistema FSA implementado por Alien Technologies (www.alientechnologies. com), que reemplaza el uso de vidrio en las pantallas por una película de plástico, integra tecnología touch screen (o pantalla sensible).
Por otra parte, se procede al desarrollo de los monitores 3D (tratados en la sección Hardware de este suplemento), en función del efecto “estéreo” de la visión humana. En este rubro, la firma Philips tiene su cuota de participación con su sistema Multiview 3D-LCD, mediante el cual varios usuarios a la vez podrán moverse libremente frente a la pantalla sin perder el valorado efecto tridimensional.
\
Realidad virtual: ¿Para cuándo?
El sistema de funcionamiento de la Realidad Virtual, o VR, es muy simple: sobre el ojo izquierdo se proyecta una pantalla en 3D; sobre el derecho se hace lo mismo, pero con la cámara levemente corrida para el costado. Esto genera cierto efecto de profundidad que da una sensación de inmersión en el mundo imaginario.
Sin embargo, persisten (o falta desarrollar) el sentido del tacto (algunos guantes especiales lo solucionan “a medias”) y el de desplazamiento (por lo general, para moverse, el usuario debe apretar un botón en vez de caminar realmente).
La falta de un equipo de realidad virtual en la mayoría de los hogares se debe, principalmente, a su costo y a la escasa disponibilidad de software (por ahora, el mundo digital en 2D e Internet causa mucho más impacto). Igualmente, los desesperados por “virtualizarse” pueden conseguir cascos con displays LCD y auriculares estéreo como los i-Glasses LC (www.vrheadsets.co.uk). Además, algunas placas de video comercializadas en la Argentina incorporan un set de “anteojitos”, aunque brindan una experiencia poco verosímil.