sábado, 28 de febrero de 2015

Sexta generación del computador


Básicamente “Generación de computadoras” es un término relacionado con laevolución y adaptación de la tecnología y de la informáticaEs decir que cada avance importante, como la reducción del tamaño de los elementos tales como procesadores y memorias, así también como el aumento de su capacidad y velocidad, se produce un salto generacional. Con cada uno de estos saltos, los equipos informáticos y dispositivos electrónicos, son cada vez más pequeños y económicos, garantizando de este modo que sea cada vez mayor la cantidad de consumidores que los compran.
Al respecto de este punto, a principios de la década de los 80, era prácticamente imposible encontrar un hogar que tuviera una computadora. Este panorama ha cambiado radicalmente, al punto que es prácticamente imposible encontrar un lugar en el mundo en donde una computadora no se encuentre realizando una tarea.
Todo se inció en los albores de la década del 40 con ENIAC, y la última etapa de la quinta generación de computadoras fue anunciada como la de las "computadoras inteligentes" basadas en Inteligencia Artificial, iniciada por un famoso proyecto en Japón, y que finalizó en un estrepitoso fracaso; a partir de ahí, la cuenta de las generaciones de computadoras es un poco confusa.

Sexta generación de computadoras



 La sexta generación se podría llamar a la era de las computadoras inteligentes baseadas en redes neuronales artificiales o "cerebros artificiales". Serían computadoras que utilizarían superconductores como materia-prima para sus procesadores, lo cual permitirían no malgastar electricidad en calor debido a su nula resistencia, ganando performance y economizando energía. La ganancia de performance sería de aproximadamente 30 veces la de un procesador de misma frecuencia que utilice metales co
Todo esto está en pleno desarrollo, por el momento las únicas novedades han sido el uso de procesadores en paralelo, o sea, la división de tareas en múltiples unidades de procesamiento operando simultáneamente. Otra novedad es la incorporación de chips de procesadores especializados en las tareas de vídeo y sonido.
Esta manía de enumerar las generaciones de computadoras parece que se ha perdido. Ya no suceden, como ocurrió en las cuatro primeras generaciones, la sustitución de una generación de computadoras por las siguientes. Muchas tecnologías van a sobrevivir juntas, cada una en su sector de mercado.
Es una realidad que los chips son cada vez más chicos, rápidos y eficientes ... será la característica de la séptima generación de computadoras?
Mientras pensamos en esto, te invitamos a ver el siguiente video, en donde podremos ver la evolución de computadoras y dispositivos a lo largo del tiempo.



Como ya se sabe la sexta generación se viene dando a partir de 1990 hasta la fecha, en estos ultimos años hemos venido viendo que las computadoras ahora son mas pequeñas, son mas versatiles, ahora internet es una herramienta indispensable tanto en los centros de labores como en el hogar, casi el 90% de la población hace uso en algun momento de internet, y por consiguiente de una computadora.

Ahora vemos que el costo de una PC es relativamente bajo asi como el de una Laptop, las computadoras de ahora vienen trabajando con arquitecturas paralelas / vectoriales lo que hace que sean muy rapidas, pueden almacenar una cantidad enorme de informacion hablamos de terabites, ahora las computadoras practicamente toman decisiones propias alcanzando casi la misma del ser humano, tenemos computadoras tactiles que casi no ocupan espacion en el hogar y el trabajo, tambien con diseño holográfico, lo cual ha revolucionado el mercado de la informática.



Estamos entrando a una era donde las computadoras pueden desarrollar capacidades casi similiares al ser humano, ya hemos visto robots que puden jugar un encuentro de futbol, esperamos que el avance tecnologico en el mundo de la informatica y la computación nos facilite más las cosas asi como hasta ahora lo viene haciendo.

En la actualidad la informatica utiliza satelites, fibra optica, inteligencia artificial lo cual hace que el desarrollo en este campo sea enorme, estamos frente a un avance sin precedentes, y pensar que todo esto comenzo con una simple tabla de Abaco en la antiguedad.





Esta es la generación actual que nos toco vivir, los avances en esta etapa han sido los mas grandes. Esta generación se puede considerar la continuación de la cuarta generación, ya que la quinta generación fue un proyecto separado a la evolución de los primeros microprocesadores.
Aparecieron las computadoras mas pequeñas y mas potentes procesadores mas rapidos y menor consumo de energia, los sistemas operativos dejaron de ser por linea de comando y ahora eran con interfaz grafica.
La velocidad de los procesadores aumento drasticamente del orden de Mhz a las primeras unidades de Ghz, las tarjetas de video experimentaron cambios en los puertos de interfase desde los ISA hasta los actuales PCI express y comenzaron a jugar un papel determinante en el desempeño de las computadoras al quitarle la carga de procesamiento de graficos al procesador, los discos duros que eran de Megabytes ahora son de Terabytes pasando por los discos con motor electrico a los nuevos con memorias (SSD) por ende la velocidad de lectura y escritura hoy superan los 300 Megabityes por segundo, los monitores que eran monocromaticos evolucionaron a los monitores de color con millones de colores y despues se elimino el cinescopio dando cabida a los monitores LCD con menor consumo de energia.
Los componentes perifericos evolucionaron de las impresoras de matriz de puntos a las impresoras de inyeccion de tinta y posteriormente a las impresoras laser, los scanners aparecieron al alcance de la mayoria de los usuarios e incluso hoy en dia son inalambricos por WIFI o Bluethoth, el teclado evoluciono a unirse a estas ultimas conectividades, el mouse o apuntador nacio en esta generacion con la necesidad de los sitemas operativos graficos.
Los sistemas de enfiramiento tambien evolucionaron de los primeros que solo eran disipadores de calor de aluminio a los sofisticados disipadores de cobre con ventiladores de altos flujos de aire y dando lugar incluso a los sistemas de enfriamiento por agua como los mas accesibles. Algunos han hecho sistemas de enfriamiento por nitrogeno y no podemos descartar el efecto peltier denominado como refrigeracion termoelectrica.
Los gabinetes de esta generacion han sido disminuidos en el tamaño, facilitando en algunos casos la portabilidad que desencadeno en la aceptacion de las computadoras portatiles que han ido creciendo en desempeño y facilidad de uso de la mano con las computadoras de escritorio.
La conectividad con el mundo exterior ha sido ayudada por la expansion de la autopista de la informacion llamada Internet descubriendo nuevas aplicaciones para las computadoras que nunca se habian imaginado como la vigilancia remota por camaras IP en tiempo real.
Las ventas de computadoras han crecido en los ultimos años tan solo en Estados Unidos se han vendido 80 millones por año aproximadamente, aunque del año 2011 a la fecha se visto una contraccion en las ventas por aparicion de las tablets que en muchas tareas reemplazan a las computadoras personales.
En esta generacion se posicionaron las lideres del mercado en la industria de tecnologia informatica, como Intel, AMD, Cyrix, ATI, Nvidia, Creative Labs, Microsft, IBM, 3 Com, por mencionar algunas.


En esta sexta generación de computadoras se espera conseguir la imitación de los Sistemas Expertos, es decir, imitar el comportamiento de un profesional humano. Para lograr este objetivo se emplearán microcircuitos con inteligencia en donde las computadoras tendrán la capacidad de aprender, asociar, deducir y tomar decisiones para la resolución de un problema.
Cabe mencionar que el objetivo de la inteligencia artificial no sólo es equipar las computadoras con inteligencia humana, sino que también con la capacidad de razonar para encontrar soluciones. Otra característica fundamental de la sexta generación de computadoras es la capacidad del ordenador para reconocer patrones y secuencias de procesamiento que haya encontrado previamente (programación Heurística). Dicha programación le permitirá a la computadora recordar resultados previos e incluirlos en el procesamiento.
Sexta generación de computadoras
La computadora aprenderá a partir de sus propias experiencias, es decir que utilizará sus datos originales para obtener la respuesta mediante el razonamiento y luego conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.

La base de la sexta generación de computadoras está en que los conocimientos recién adquiridos le servirán a la computadora como base para la próxima serie de soluciones.

Quinta generación del computador



Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras.
Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.
Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.
El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen.
También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.


Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizajefundamentados en sistemas expertos e inteligencia artificial.



 El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration).
Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial.
El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.

  El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones.  Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. 















La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software,1 usando el lenguaje PROLOG2 3 4 al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como latraducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo). Como unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration).
El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintosprocesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto conlleva se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.



Antecedentes y diseño

A través de las múltiples generaciones desde los años 50, Japón había sido el seguidor en términos del adelanto y construcción de las computadoras basadas en los modelos desarrollados en los Estados Unidos y el Reino Unido. Japón, a través de su Ministerio de Economía, Comercio e Industria (MITI) decidió romper con esta naturaleza de seguir a los líderes y a mediados de la década de los 70 comenzó a abrirse camino hacia un futuro en la industria de la informática. El Centro de Desarrollo y Proceso de la Información de Japón (JIPDEC) fue el encargado llevar a cabo un plan para desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para realizar estudios más profundos con la participación conjunta de empresas de la industria dedicadas a la tecnología e instituciones académicas, a instancias de Hazime Hiroshi. Fue durante este período cuando el término "computadora de quinta generación" comenzó a ser utilizado.

Inicio

En 1981 a iniciativa del MITI se celebró una Conferencia Internacional, durante la cual Kazuhiro Fuchi anunció el programa de investigación y el 14 de abril de 1982 el gobierno decidió lanzar oficialmente el proyecto, creando el Institute for New Generation Computer Technology (Instituto para la Nueva Generación de Tecnologías de Computación o ICOT por sus siglas en inglés), bajo la dirección de Fuchi, a quien sucedería en el puesto como director del instituto Tohru Moto-Oka, y con la participación de investigadores de diversas empresas japonesas dedicadas al desarrollo de hardware y software, entre ellas Fujitsu, NEC, Matsushita, Oki, Hitachi, Toshiba y Sharp.
Los campos principales para la investigación de este proyecto inicialmente eran:
  • Tecnologías para el proceso del conocimiento.
  • Tecnologías para procesar bases de datos y bases de conocimiento masivo.
  • Sitios de trabajo del alto rendimiento.
  • Informáticas funcionales distribuidas.
  • Supercomputadoras para el cálculo científico.

Impacto institucional e internacional

Debido a la conmoción suscitada que causó que los japoneses fueran exitosos en el área de los artículos electrónicos durante la década de los 70, y que prácticamente hicieran lo mismo en el área de la automoción durante los 80, el proyecto de la quinta generación tuvo mucha reputación entre los otros países.
Tal fue su impacto que se crearon proyectos paralelos. En Estados Unidos, la Microelectronics and Computer Technology Corporation y la Strategic Computing Initiative; por parte europea, en Reino Unido fue ALVEY, y en el resto de Europa su reacción fue conocida como ESPRIT (European Strategic Programme for Research in Information Technology, en español Programa Estratégico Europeo en Investigación de la Tecnología de la Información).

Popularidad internacional

Aparte de las reacciones a nivel institucional, en un plano más popular comenzó a ser conocido en Occidente gracias a la aparición de libros en los que se hablaba del proyecto de manera más o menos directa o era citado pero principalmente por artículos aparecidos en revistas dedicadas a los aficionados a la informática; así por ejemplo, en el número de agosto de 1984 de la estadounidense Creative Computing se publicó un artículo que trataba ampliamente el tema, "The fifth generation: Japan's computer challenge to the world" (traducido, La Quinta Generación: El desafío informático japonés al mundo). En el ámbito de habla hispana se puede citar por ejemplo a la revista MicroHobby, que en julio de 1985 publicó una entrevista a Juan Pazos Sierra, Doctorado en Informática y vinculado en aquella época a la Facultad de Informática de la Universidad de Madrid, en la que describía someramente el proyecto como:
...un proyecto japonés que tiene unas características curiosas y especiales; en primer lugar, la pretensión es construir un computador basado en tecnología VLSI, con una arquitectura no Von Neumann y que llevaría como núcleo de software la programación lógica, el lenguaje PROLOG, para construir finalmente sobre todo esto Sistemas Expertos.
Y sobre sus potenciales resultados, expresaba una opinión relativamente optimista, en la línea de lo augurado por los propios promotores del proyecto. Así, ante la pregunta de si se había obtenido algún resultado en el mismo, respondía:
De momento, nada. Se va a desarrollar muchísimo lo que ya existe, aparecerán nuevas tecnologías, nuevos Sistemas Expertos y la investigación se verá enormemente potenciada por la tremenda inyección de dinero que el proyecto quinta generación ha supuesto para la Inteligencia Artificial.
Por su parte, Román Gubern, en su ensayo El simio informatizado de 1987, consideraba que:
...el ordenador de quinta generación es un verdadero intento de duplicación tecnológica del intelecto del Homo sapiens.

Principales eventos y finalización del proyecto

  • 1981: se celebra la Conferencia Internacional en la que se perfilan y definen los objetivos y métodos del proyecto.
  • 1982: el proyecto se inicia y recibe subvenciones a partes iguales aportadas por sectores de la industria y por parte del gobierno.
1985: se concluye el primer hardware desarrollado por el proyecto, conocido como Personal Sequential Inference machine (PSI) y la primera versión del sistema operativo Sequentual Inference Machine Programming Operating System (SIMPOS). SIMPOS fue programado en Kernel Language 0 (KL0), una variante concurrente de Prolog con extensiones para la programación orientada a objetos, el metalenguaje ESP. Poco después de las máquinas PSI, fueron desarrolladas las máquinas CHI (Co-operative High-performance Inference machine).
  • 1986: se ultima la máquina Delta, basada en bases de datos relacionales.
  • 1987: se construye un primer prototipo del hardware llamado Parallel Inference Machine (PIM) usando varias máquinas PSI conectadas en red. El proyecto recibe subvenciones para cinco años más. Se desarrolla una nueva versión del lenguaje propuesto,Kernel Language 1 (KL1) muy similar al "Flat GDC" (Flat Guarded Definite Clauses), influenciada por desarrollos posteriores del Prolog y orientada a la computación paralela. El sistema operativo SIMPOS es re-escrito en KL1 y rebautizado como Parallel Inference Machine Operating System, o PIMOS.
  • 1991: concluyen los trabajos en torno a las máquinas PIM.
  • 1992: el proyecto es prorrogado un año más a partir del plan original, que concluía este año.
  • 1993: finaliza oficialmente el proyecto de la quinta generación de computadoras, si bien para dar a conocer los resultados se inicia un nuevo proyecto de dos años de duración prevista, llamado FGCS Folow-on Project. El código fuente del sistema operativo PIMOS es lanzado bajo licencia de dominio público y el KL1 es portado a sistemas UNIX, dando como resultado el KLIC (KL1 to C compiler).
  • 1995: finalizan todas las iniciativas institucionales vinculadas con el proyecto.
Como uno de los productos finales del Proyecto se desarrollaron cinco Máquinas de Inferencia Paralela (PIM), llamadas PIM/m, PIM/p, PIM/i, PIM/k y PIM/c, teniendo como una de sus características principales 256 elementos de Procesamiento Acoplados en red. El proyecto también produjo herramientas que se podían utilizar con estos sistemas tales como el sistema de gestión de bases de datos en paralelo Kappa, el sistema de razonamiento legal HELIC-II, el lenguaje de programación Quixote, un híbrido entre base de datos deductiva orientada a objetos y lenguaje de programación lógico y el demostrador automático de teoremas MGTP.
Once años después del inicio del proyecto, la gran suma de dinero, infraestructura y recursos invertida en el mismo no se correspondía con los resultados esperados y se dio por concluido sin haber cumplido sus objetivos. William Zachman criticó el proyecto un año antes de su término, argumentando:
Perjudica el desarrollo de aplicaciones de IA; con la IA, no importa el sistema, mientras no haya mecanismos de inferencia potentes. Ya hay un montón de aplicaciones de tipo IA, y estoy esperando la llegada del motor de inferencia potente, por eso las computadora de quinta generación son un error.
El hardware propuesto y sus desarrollos de software no tenían cabida en el mercado informático, que había evolucionado desde el momento en el que se lanzara el proyecto, y en el que sistemas de propósito general ahora podían hacerse cargo de la mayoría de las tareas propuestas como objetivos iniciales de las máquinas de quinta generación, de manera semejante a como había pasado en el caso del mercado potencial de las máquinas Lisp, en el que sistemas para la creación de Sistemas Expertos basados en reglas como CLIPS, implementados sobre computadoras comunes, habían convertido a estas costosas máquinas en innecesarias y obsoletas.
Por otra parte, dentro de las disputas entre las diferentes ramas de la inteligencia artificial, el proyecto japonés partía del paradigma basado en la programación lógica y la programación declarativa, dominante tras la publicación en 1969 por Marvin Minsky ySeymour Papert del libro Perceptrons, que pasaría progresivamente a un segundo plano en favor de la programación de Redes Neuronales Artificiales (RNA) tras la publicación en 1986 por parte de McClelland y Rumelhart del libro Parallel Distributed Processing, lo que junto a sus escasos resultados contribuyó a que el proyecto de la quinta generación cayera en el olvido a su término en 1993.
El Institute for New Generation Computer Technology (ICOT) fue renombrado en el año 1995 a Research Institute for Advanced Information Technology (AITEC), centro que fue clausurado en 2003, pasando todos sus recursos al Advanced IT Research Group(AITRG), dependiente del Departamento de Investigación del JIPDEC.





Las computadoras de quinta generación son computadoras basadas en inteligencia artificial.
La quinta generación de computadoras fue un proyecto ambicioso lanzado por Japón a finales de los 70. Su objetivo era el desarrollo de una clase de computadoras que utilizarían técnicas de inteligencia artificial al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra.


Antecedentes y Diseño del Proyecto

A través de las múltiples generaciones desde los años 50, Japón había sido el seguidor en términos del adelanto y construcción de las computadoras de los Modelos de los Estados Unidos y el Reino Unido. Japón decidió romper con esta naturaleza de seguir a los líderes y a mediados de la década de los 70 comenzó a abrirse camino hacia un futuro en la industria de la informática. El centro del desarrollo y proceso de la información de Japón fue el encargado de llevar a cabo un plan para desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para realizar estudios más profundos junto con industrias y la academia. Fue durante este período cuando el término "computadora de quinta generación" comenzó a ser utilizado.
Los campos principales para la investigación de este proyecto inicialmente eran:
  • Tecnologías para el proceso del conocimiento
  • Tecnologías para procesar bases de datos y bases de conocimiento masivo
  • Sitios de trabajo del alto rendimiento
  • Informáticas funcionales distribuidas
  • Super computadoras para el cálculo científico
Debido a la conmoción suscitada que causó que los japoneses fueran exitosos en el área de los artículos electrónicos durante la década de los 70, y que prácticamente hicieran lo mismo en el área de la automoción durante los 80, el proyecto de la quinta generación tuvo mucha reputación entre los otros países.
Tal fue su impacto que se crearon proyectos paralelos. En Estados Unidos, la Corporación de Microelectrónica y Tecnologías de la Computación, en Inglaterra fue Alves, y en Europa su reacción fue conocida como el Programa Europeo en Investigación Estratégica de la Tecnología de la Información.
Como uno de los productos finales del Proyecto se desarrollaron 5 Maquinas de Inferencia Paralela (PIM) teniendo como una de sus características principales 256 elementos de Procesamiento Acoplados en red. El proyecto también produjo herramientas que se podían utilizar con estos sistemas tales como el Sistema Paralelo de Gerencia de Bases de Datos Kappa, el Sistema de Razonamiento Legal HELIC-II y el Teorema Autómata de Aprobaciones MGTP.
Tambien se ha hablado de que la quinta generacion incluye el uso de sistemas expretos estos son aplicaciones de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas
Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial.