ATL

Tecnologías de la información Los grandes desafíos en Tecnologías de la Información Nuevas formas para resolver viejos problemas

Los grandes desafíos en Tecnologías de la Información Nuevas formas para resolver viejos problemas

E-mail Imprimir
AddThis Social Bookmark Button
Aunque el proceso de investigación de cómo hacer más potente el hardware de los ordenadores se retrotrae a 50 años o más, muchos de los métodos tradicionales están llegando a su límite. Ahora, investigadores que se mueven en nuevas y audaces direcciones podrían estar estableciendo el curso de las Tecnologías de la Información (TI) para las próximas décadas.

Hay literalmente docenas de grandes retos que están siendo abordados por los científicos y los economistas, desde cuestiones relativas a grandes grupos sociales hasta avances técnicos. Aquí se analizan los desafíos en tres áreas clave de las Tecnologías de la Información: rendimiento de procesadores, miniaturización de chips e inteligencia artificial.
.
Primer desafío: el rendimiento de los procesadores
.
En 1965, Gordon Moore, co-fundador de Intel, observó que la densidad de transistores de los chips semiconductores se duplicaba en cada periodo de entre 18 a 24 meses, de manera que los PCs nuevos son aproximadamente dos veces más potentes que sus predecesores. La mayoría de los investigadores prevén que la ley de Moore seguirá siendo válida al menos durante 10 años más.
.
Sin embargo, el rendimiento de los procesadores está llegando a sus límites, especialmente en lo que se refiere a la cantidad de potencia que es disipada por los transistores. En este sentido, analistas de la industria afirman que “al continuar vigente la ley de Moore, es cada vez más difícil obtener dispositivos que funcionen a escalas muy pequeñas utilizando semiconductores CMOS”. Otra cuestión es que cada vez resulta más difícil refrigerar los chips económicamente. La limitación potencia-densidad para procesadores refrigerados por aire es del orden de 100 vatios por centímetro cuadrado de superficie de chip y, según afirman diferentes expertos, resulta bastante más caro inyectar líquido en la parte posterior de un chip, lo cual permitiría una refrigeración de aproximadamente el doble de esa densidad de potencia.” Dependiendo de las gamas de voltaje y de otros factores, los chips Itanium y Pentium 4 consumen entre 100 y 500 vatios de potencia. Por lo tanto, lo lógico y de cara a procesadores futuros habría que reducir la disipación de potencia a docenas de vatios por núcleo de procesador y, lo más importante, se tendría que contener y controlar la densidad de potencia, es decir, la disipación por unidad de superficie.
.
Dadas estas restricciones, los investigadores se están concentrando ahora en nuevos métodos y enfoques para mejorar el rendimiento de los procesadores, tales como situar múltiples núcleos de procesador en un único chip, además de adoptar nuevos enfoques respecto a la arquitectura y diseño de los chips.
.
Por ejemplo, IBM está evaluando –y en algunos casos implementando ya– el uso de nuevos materiales en un chip, tales como el cobre, silicio sobre aislante, y germanio de silicio para mejorar el rendimiento de los dispositivos, reducir la densidad de potencia u ofrecer una combinación de ambas cosas. Además, los materiales permiten a los investigadores fabricar chips más pequeños que consumen menos potencia. Para ayudar a aumentar la disipación de potencia, IBM está utilizando geles refrigerantes que impedirían la existencia de puntos de calor en un chip. IBM está estudiando también las posibilidades de procesadores refrigerados por agua.
.
Para ayudar a mejorar el ancho de banda dentro de los chips, investigadores del Massachusetts Institute of Technology (MIT) están trabajando en un proyecto llamado Raw Architecture Workstation Project, en el que se instalan múltiples “adicionadores y substractores” en todo el chip junto con el almacenamiento para ofrecer “vecindades de proceso”, en lugar de tener que recorrer todo el chip para mover datos. Al mismo tiempo, investigadores en el Los Alamos National Laboratory, en Nuevo Méjico, están desarrollando sistemas de proceso en paralelo que utilizarían decenas de miles de procesadores y permitirían hasta mil millones de millones de operaciones de punto flotante por segundo en una fecha tan temprana como 2008.
Según un informe de la Universidad de California, Berkley, los investigadores podrán duplicar en cada periodo de entre tres y cinco años la cantidad de procesadores que instalan en un chip. Pero eso dependerá de la existencia de software que sea capaz de utilizarlo.
Otro factor decisivo se sitúa en la programación de grandes ordenadores de proceso en paralelo para explotar su potencial ha sido el objetivo de máxima atención hasta ahora. Al pasar los ordenadores de cientos de procesadores a cientos de millares de procesadores durante los próximos años, el problema va a aumentar extraordinariamente. Cray, IBM y Sun Microsystems están desarrollando lenguajes de proceso en paralelo. En este sentido, se prevé que Cray comenzará a ofrecer su lenguaje de programación en paralelo en versión abierta, llamado Chapel, en 2005.

.
Segundo desafío: Miniaturización de chips
.
Actualmente pueden fabricarse chips con medidas tan pequeñas como entre 70 y 90 nanómetros de ancho, conteniendo cientos de millones de transistores. El año pasado, los laboratorios de Hewlett-Packard desarrollaron una memoria RAM de 64 bits que va situada en el espacio de una sola micra cuadrada.  Además, una forma de resolver el problema del calor generado por circuitos ultra-densos es reducir la tensión de alimentación. Durante los 10 últimos años, los diseñadores han conseguido diseñar circuitos que funcionan en base a sistemas de alimentación de 1 voltio, y, son muchos los analistas que afirma que los diseñadores deberán superar el umbral de medio voltio en el plazo de cinco años. Sin embargo, para reducir la alimentación será necesario también reducir los umbrales de tensión de los dispositivos, lo cual hace que la fuga de potencia aumente exponencialmente. Para resolver estos problemas, espera que habrá una mayor atención a la posibilidad de interrupción o gating de la alimentación –es decir, interrumpiendo la red de alimentación cuando el chip está inactivo, mediante conmutadores de potencia en el circuito del chip– y utilizando múltiples dispositivo de control del umbral de potencia para minimizar los requerimientos de potencia.
.
De acuerdo con esta tendencia hacia la miniturización parece ser que los nuevos refinamientos en silicio ultradelgado y gate insulators ultradelgados podrían permitir a los investigadores reducir las longitudes de canal de dispositivo de los aproximadamente 45 nanómetros de hoy a entre 15 y 20 nanómetros en un plazo de 10 años. También se espera que aparezcan algunos chips de alto rendimiento que disiparán al menos 10 veces más potencia que los chips actuales, así como chips con una densidad de memoria 20 veces mayor que los actuales, mediante el uso de herramientas de litografía óptica que aparecerán dentro de 10 años.
.

Tercer desafío: Inteligencia artificial
.
Definida en términos amplios, la Inteligencia Artificial o AI incluye tres disciplinas principales: proceso de lenguaje natural, aprendizaje mecánico y robótica. Avances recientes en estas áreas han dado lugar a tecnologías comerciales que van desde una aspiradora robot llamada Roomba hasta sistemas de reconocimiento de habla orientados al cliente.
Sin embargo, a pesar de estos avances, los sistemas de ordenador continúan encontrando dificultades a la hora de razonar. “Los retos más importantes están en determinar la forma de organizar los programas con el fin de obtener un mayor grado de sentido común”. Si uno va conduciendo y hay un perro en la carretera, se observará que el perro se mueve si se reduce la velocidad y se toca el claxon. Si hay un carro de leña en la carretera, no reduciríamos la velocidad ni tocaríamos el claxon. Los ordenadores no pueden hacer esa distinción.”
.
La agencia DARPA (Defense Advanced Research Projects Agency) está aportando fondos para investigaciones destinadas a desarrollar un “asistente ejecutivo” basado en ordenador que podría realizar tareas administrativas como priorizar solicitudes de e-mail para un jefe militar o un ejecutivo de negocios. DARPA espera haber realizado para el próximo verano la primera ronda de tests para el sistema.
Los ordenadores tienen también problemas en comprender contextos, como hacen los humanos, a causa de su conocimiento limitado. Esto hace difícil para los sistemas basados en Inteligencia Artificial procesar peticiones incompletas. Hace algunos años, IBM comenzó a desarrollar un marco o framework de software para manejar información sensitiva al contexto utilizando métodos basados en optimización que a diferencia de los sistemas basados en reglas tradicionales pueden manejar diversas peticiones de información del usuario en contexto, incluyendo peticiones imprecisas o incompletas.
Según un informe del laboratorio de ciencias informáticas e Inteligencia Artificial del MIT, en un plazo de cinco a 10 años deberán estar disponibles sistemas capaces de manejar interacciones hombre-ordenador más complicadas, como procesar una petición de entradas de cine en un cine específico mediante reconocimiento de habla.
Fuente