viernes, 27 de febrero de 2015

Tercera generación del computdor

A mediados de los años 60 se produjo la invención del circuito integrado o microchip, por parte de Jack St. Claire Kilby y Robert Noyce. Después llevó a Ted Hoff a la invención del microprocesador, en Intel. A finales de 1960, investigadores como George Gamownotaron que las secuencias de nucleótidos en el ADN formaban un código, otra forma de codificar o programar.
A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y otros componentes electrónicos en un solo chip o encapsulado, que contenía en su interior un circuito completo: un amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos chips (circuitos integrados) era mucho más fácil montar aparatos complicados: receptores de radio o televisión y computadoras.
En 1965, IBM anunció el primer grupo de máquinas construidas con circuitos integrados, que recibió el nombre de serie Edgar.
Estas computadoras de tercera generación sustituyeron totalmente a los de segunda, introduciendo una forma de programar que aún se mantiene en las grandes computadoras actuales.
Esto es lo que ocurrió en (1964-1971) que comprende de la tercera generación de computadoras.

  • Menor consumo de energía
  • Apreciable reducción del espacio
  • Aumento de fiabilidad y flexibilidad
  • Teleproceso
  • Multiprogramación
  • Renovación de periféricos
  • Minicomputadoras, no tan costosas y con gran capacidad de procesamiento. Algunas de las más populares fueron la PDP-8 y la PDP-11
  • Se calculó π (Número Pi) con 500 mil decimales





La tercera generación de computadoras se desarrolló desde 1964 hasta 1971 y se caracterizó principalmente por la disminución del tamaño medio de las computadoras y por la incorporación de los circuitos integrados (chips de silicio).
Si bien los circuitos integrados fueron inventados en 1958, tuvieron que transcurrir algunos años para que las grandes compañías crearan los dispositivos electrónicos adecuados en los que estos circuitos podrían ser utilizados.
En abril de 1964 presentó su generación de computadoras IBM 360, y este acontecimiento inauguró lo que fue la tercera generación de computadoras.
La tercera generación de computadoras logró, gracias a la utilización de circuitos integrados, una nueva disminución de volumen y costos y optimizó la velocidad en el funcionamiento de las grandes computadoras.
Este hecho, además, hizo posible el desarrollo de un nuevo tipo de computadora de dimensiones más reducidas: la micro-computadora.


simple vista, la característica principal de la tercera generación de computadoras fue la notable disminución de tamaño de la computadora, pero esta no era la peculiaridad de esta generación, ya que la novedad consistió  en la idea de Jack Kilbry, de reunir en un pequeño soporte todo un grupo de componentes que fueron conocidos como circuitos integrados.
Esta idea se hizo posible con la aparición de la serie de computadoras IBM 360, en donde la alimentación de la información aún se realizaba por medio de tarjetas perforadas y previamente tabuladas y se almacenaba en cintas magnéticas. IBM desarrolló varios modelos de esta serie que contaba con el sistema operativo OS (Operating System) y los lenguajes que utilizaba eran el FORTRAN, ALGOL y COBOL.
Otra originalidad de la tercera generación de computadoras, era que la serie de computadoras de IBM 360 podían ser interconectadas en red, algo que representaba una verdadera novedad, ya que hasta ese momento cada computadora era independiente de cualquier máquina o proceso.







Principales características de la tercera generación de computadoras:

1) Utilización de redes terminales periféricos conectados a la unidad central, una originalidad que le permitía a los usuarios utilizar la computadora desde los lugares menos pensados.
2) A mediados de los años 60 la empresa INTEL logró integrar un procesador completo en un solo chip: así nació el microprocesador.
3) Circuitos integrados, disminución del volumen y agrupación de elementos en una placa de silicio.
4) Ahorro de energía.
5) Reducción de espacio.
6) Utilización de la computadora por varios usuarios al mismo tiempo.
7) Multiprogramación.
8) Renovación y creación de periféricos de entrada y salida.
9) Generalizan y optimizan los lenguajes de alto nivel como el COBOL y FORTRAN.
10) Instrumentación del sistema: se desarrollan hardware que permiten la conectividad de varios dispositivos con el objetivo de formar redes.
11) Micro-computadora


Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora.


Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energética mente más eficientes.
El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras.
Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.
La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos.
IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de
30000, al grado que IBM llegó a conocerse como sinónimo de computación.
También en ese año, Control Data Corporation presenta la supercomputadora CDC 6600, que se consideró como la más poderosa de las computadoras de la época, ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones por segundo (mips).
Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables.
Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).
Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron sumador auge entre 1960 y 70.


Esta generación se caracterizó por una disminución del tamaño medio de las computadoras. El empleo generalizado de circuitos integrados logró una nueva disminución del volumen y del costo, así como una mayor rapidez en el funcionamiento de las grandes computadoras. Hizo rentable el desarrollo de un nuevo tipo de computadora de dimensiones más reducidas, la micro computadora, asequible a las medianas empresas.
  
En ese tiempo, los usuarios trabajan en un tipo de procesamiento denominado Batch; es decir, tenían que perforar sus trabajos en tarjetas y dejarlos en los centros de cálculo para que la computadora los procesara por turno y diera sus resultados unos minutos después, o incluso  horas más tarde.
  
A pesar de que aparentemente la novedad en esta generación era la gran disminución de tamaño en la computadora, esto no era del todo cierto, la verdadera novedad consistía en la idea de reunir en un pequeño soporte todo un grupo de componentes, conocidos como circuitos integrados. Este concepto fue  desarrollado en 1958 por Jack Kilbry. El período experimental se realizó en 1964.
  
La utilización efectiva se produjo con la aparición de la serie IBM 360, en donde la alimentación de la información aún se realizaba por  medio de tarjetas perforadas y previamente tabuladas, y se almacenaba en cintas magnéticas. IBM desarrolló varios modelos de esta serie; a saber: IBM 360 20/30/40/50/65/67/75/85/90/195. Su sistema operativo simplemente se llama OS (Operating System) y los lenguajes que manejaron fueron el FORTRAN, ALGOL y COBOL. Las computadoras de esta serie podían ser interconectadas en Red, lo que representaba una novedad porque hasta el momento cada computadora era independiente de cualquier  máquina o proceso.

Hacia el final de esta generación aparece un nuevo tipo de computadora,  la “minicomputadora”, que rompe con  los esquemas establecidos,  convirtiéndose en el producto más activo de todos los que produciría la industria de la computación.
  
IBM 360



En 1958 Kilby de Texas Inst. concibió la idea de realizar un circuito integrado monolítico;esto es, la construcción de un circuito entero en un substrato de Ge o Si. En distintos sustratos semiconductores construyó una resistencia, un condensador, transistores, etc. Las conexiones entre los distintos elementos las realizó por termocompresión con hilos de oro; pero ya en su patente indicaba la posibilidad de que los componentes podrían ser integrados en único sustrato de semiconductor y las interconexiones sugería se efectuasen depositando sobre la superficie pistas o tiras de material conductor. En 1960, en un congreso anunció su idea sobre los circuitos sólidos, más adelante denominados circuitos integrados. Los primeros desarrollos comerciales de éxito se deben al desarrollo de la tecnología planar, propuesta por Noyce Y Moore, consistente en la fabricación de dispositivos utilizando procesos fotolitográficos y de difusión térmica. Esta propuesta posibilitó la comercialización de circuitos integrados a partir de 1961 por Fairchild y Texas Inst. La tecnología integrada hace posible la construcción, en un sólo bloque de semiconductor, de un circuito que realice una función electrónica compleja (puertas lógicas, biestables, etc.). Los distintos elementos quedan conectados directa e inseparablemente, obteniéndose sobre el sustrato de cristal una especie de microfotografía del circuito. Algunos de los hechos más relevantes de la nueva tecnología son los siguientes:
  • El bajo coste de los transistores que incluye el circuito integrado, hizo posible diseños de circuitos cada vez más complejos y perfectos.
  • Al estar todos los componentes de un circuito muy próximos, en el mismo cristal, los retardos en la transmisión de señales entre distintos puntos son mínimos.
  • Se reduce el consumo de energía y la fiabilidad de los circuitos.
  • Se consigue una gran minituarización.
  • Se reduce considerablemente el coste, ya que:
  • Se puede automatizar considerablemente la construcción de los circuitos, pudiéndose fabricar en grandes series.
  • Los nuevos dispositivos no sólo contienen conmutadores, sino circuitos completos; es decir, se reduce considerablemente el trabajo manual de interconexión de componentes, se construye simultánea y automáticamente todo el circuito.
Para darse cuenta del avance que toda esta tecnología supuso, hay que recordar que el ENIAC contenía aproximadamente 20000 conmutadores (18000 válvulas de vacío y unos 1500 relés), con lo que todos sus circuitos hubiesen podido integrarse fácilmente en un circuito VLSI (muy gran escala de integración). De hecho, cualquier calculadora electrónica de bolsillo actual realiza funciones más complejas, más rápidamente y con más precisión que el ENIAC, y ¡sin necesitar una superficie de unos 140 m2!
Tecnológicamente, la tercera generación de computadores se caracteriza por la utilización de circuitos integrados SSI (pequeña escala de integración) y MSI (media escala de integración), reemplazando a los circuitos de transistores directos, y consiguiéndose así una reducción significativa en coste y tamaño físico. También poco a poco se fueron imponiendo las memorias realizadas con circuitos integrados, desplazando a las memorias de núcleos de ferrita.
Computadores.
En esta época se desarrollan grandes computadores, dando servicio a gran diversidad de terminales de trabajando en forma local o remota. Con ello se desarrollaron procedimientos para compartir los recursos del computador como la unidad central de procesador, memoria, periféricos,...
También se desarrolló la memoria virtual, esta permite al usuario hacer programas de una capacidad muy superior a la que físicamente tiene el computador. Esto hace posible que la capacidad máxima de los programas venga limitada por el espacio que se reserva en disco para ella y no por la memoria principal.
La memoria virtual permite que aumente el número de procesos en la memoria principal en ejecución concurrente, ya que con ella sólo es necesario que este en memoria principal un trozo mínimo de cada proceso, y no el proceso completo.
Esta memoria se basa que las instrucciones de un programa que se ejecuta sucesivamente están en direcciones muy próximas y en que los programas suelen estar redactados con gran linealidad.
En un sistema de memoria virtual se mantiene en disco un archivo con la imagen del proceso completo, que está troceado en páginas o segmentos, dependiendo del método. La segmentada es más compleja que la del tipo de paginación, ya que los segmentos son de tamaño variable y son más difíciles de gestionar, las paginas son de capacidad constante y preestablecida.
En esta época el diseño arquitectónico del computador se le dio un amplio uso.
La unidad de control micro-programada es la sucesiva a la unidad de control cableada, la cual se generan mediante circuitos lógicos.
La unidad de control micro-programada fue introducida por el ingles Maurice V.Wilkes años antes(1951). Es la secuencia de señales que es codificada e introducida en una pequeña memoria denominada micro-memoria en la CPC.
Podemos tener una palabra con tantos bits como puertas lógicas tengamos que controlar, cada bit implica una puerta(1 abrirla, 0 cerrarla).
Ventajas:
  • Necesita menos HARD por el contrario se precisa más micro-memoria pero esta es más barato.
  • Es más fácil verificar la secuencia al diseñarla y más fácil comprobar en secuencias.
  • La micro-memoria suele ser ROM pero puede ponerse en RAM, de esta manera el programador puede cambiar el repertorio de instrucciones.
En esta época se perfeccionó y generalizó el uso de las técnicas de procesamiento concurrente o paralelo, como segmentación de cauce, multiprogramación y multiprocesamiento.
Se puede considerar que la consolidación de esta técnica se debe a su introducción en algunos modelos de la serie IBM 360.Fue el más significativo de la época, los aspectos más destacables del 360 es que se concibió como una línea o familia de computadores utilizable tanto para aplicaciones comerciales como científico-técnicas.
Todos los modelos de serie tenían el mismo repertorio de lenguaje máquina y el mismo sistema operativo, sólo cambiaba el precio y prestaciones debido a diferentes implementaciones físicas.
El modelo inferior de la serie era comparable al computador más pequeño de IBM de la generación anterior y el modelo superior era mucho más capaz que el 7090.Algunos modelos de la serie 360 difundieron por primera vez nuevas técnicas tales como microprogramación, memoria caché, canales de E/S, controladores DMA, etc. Fue el primer computador comercial que utilizó circuitos integrados.
Otros equipos destacados fueron el UNIVAC, y los supercomputadores escalares CDC 6600(utilizó por primera vez el procesador de E/S programable),CDC 7600 y CDC serie CYBER, que conseguían prestaciones de pico del orden de 15 a 20 mflop/s (millones de instrucciones de coma flotante por segundo).
En 1963 la empresa Digital Equipament Corporation comenzó a comercializar una serie de computadores denominados PDP, estos tipos de computadores se llamaron minicomputadores, en cierta medida fueron revolucionarios. Se trataba de comercializar pequeños equipos informáticos aprovechando al máximo las posibilidades de los circuitos integrados.
Su precio era al menos un orden de magnitud inferior al de los computadores convencionales de la época y su campo de aplicaciones era muy amplio, pues iba desde satisfacer las necesidades de un pequeño departamento de una universidad o empresa, hasta ser utilizado en control industrial, como computador de uso específico dedicado en exclusiva a una aplicación. Las prestaciones fueron comparables a las de los mayores de la segunda generación.
Estos computadores tienen un sistema similar a los mainframes. El rango superior de estos equipos se llamaron "maxi-minis" o "super-minis", se introdujeron para incluir sistemas organizados en palabras de 32 bits, capaces de soportar al menos 16 terminales remotos y con memoria principal mayor de 1 MByte. Su desarrollo se promovió con el objetivo de conseguir sistemas con prestaciones próximas a los macrocomputadores con precios muy inferiores a ellos.
Software.
Una de las características más destacables de la tercera generación de computadores fue el desarrollo de grandes computadores atendiendo a un gran número de terminales. Se difundieron sistemas operativos que utilizaban técnicas tales como multiprogramación, multiprocesamiento, secuencias múltiples, dispositivos de entrada/salida virtuales (“spool”), etc. Cada computador o serie compatible de ellos se utilizaba con un sistema operativo especifico diseñado por el propio constructor del hardware.
El sistema que implementa dispositivos de E/S virtuales se suele denominar spooler”. La idea del gestor de dispositivos virtuales se aplica a periféricos lentos, y consiste en interponer entre un proceso y el periférico lento un dispositivo de memoria auxiliar rápido. Usualmente un periférico lento es una impresora, un registrador gráfico, etc. y el rápido un disco. Cuando un proceso genera una línea a escribir sobre impresora entra en acción el "spooler" que lleva la información a un archivo de impresión en disco y no a la impresora. De esta forma se consigue que un proceso no esté parado en memoria principal esperando a que la impresora este lista (al estar imprimiendo un listado producido por otro proceso, por estar sin papel o desconectada, etc.). Según se van generando archivos de impresión de distintos procesos, éstos van formando una cola de impresión en un directorio, pudiendo existir varias de ellas.
Existe otro módulo del sistema operativo que se encarga de ir imprimiendo o sacando por el periférico correspondiente los archivos o repetir un determinado listado o “saltar páginas”. El propio modulo de impresión se encarga de ir borrando en el disco los archivos de impresión según se hayan listado completamente.
De la misma forma, existe para periféricos lentos de entrada un “spooler” de entrada. Este era habitual en los computadores que se programaban con tarjetas perforadas y trabajaban por lotes. Los programas eran leídos por el “spooler” de entrada que los almacenaba en archivos, en forma de imágenes de tarjetasabiertos dentro del directorio ”spool” de entrada. El planificador de trabajos va seleccionando de este directorio, de acuerdo con unas con unas prioridades, el programa que en cada momento debe iniciar su ejecución. Una instrucción de lectura de una tarjeta implica la lectura de una imagen de tarjeta, en lugar de la lectura de una tarjeta real del lector de tarjetas.
Se observa que los módulos “spool” hacen que los procesos “vean” a los periféricos de E/S como archivos en disco, aprovechándose de las mejores prestaciones de este tipo de periférico. Puede decirse que el disco se comporta como (o “virtualmente es”) un dispositivo de E/S tipo digitalizador o impresora, etc., es decir, el disco contiene dispositivos de E/S virtuales.
En la segunda mitad de la década de los sesenta se idearon nuevos lenguajes de programación de alto nivel tales como BASIC (1964), PL/I(1966), APL (1960), PASCAL(1973) y nuevas versiones de lenguajes precedentes.
El lenguaje de programación BASIC fue concebido como un lenguaje interactivo, polivalente y de fácil aprendizaje y empleo. En un principio fue normalizado por el organismo ANSI y de esta normalizacion parten las líneas originales del BASIC. Mas tarde, surgió toda una gran familia de dialectos que cada vez se fueron desviando mas y más del lenguaje original.
En 1977, la empresa americana Microsoft desarrollo un dialecto que pretendía unificas criterios. Rápidamente fue aceptado por varios fabricantes de ordenadores como Tandy, Apple, Commodore...
El gran boom del BASIC ha llegado con la irrupción de los microordenadores, con la gran ventaja de su precio, que los ha hecho asequibles a cualquier bolsillo. Pero hay que señalar que en un principio, el BASIC fue adoptado por los sistemas comerciales de tiempo compartido. De estos es de donde viene la popularidad del BASIC.
En la década de los ochenta, el BASIC se convirtió en el lenguaje de programación más utilizado.
El nombre del lenguaje PASCAL es un homenaje al matemático francés Blaise Pascal que invento en 1690 la primera calculadora mecánica de la historia.
Es un lenguaje inspirado en el Algol y PL/1 y significa un intento de definir un lenguaje de programación de simple aprendizaje y apto para adaptarse a las especificaciones de los algoritmos y a las definiciones de estructura de datos.
Inicialmente se diseño para ser una herramienta para enseñar los conceptos de programación, pero fue adquiriendo gran aceptación y se uso fue creciendo. Es un lenguaje sencillo de aprender, y que facilita su aprendizaje para comprender otros lenguajes no tan fáciles.
El lenguaje C, producto derivado de dos lenguajes precedentes como eran el BCPL y el B, fue desarrollado en los años 70 como consecuencia de la necesidad de una herramienta de programación potente, pero de fácil uso para el diseño del sistema operativo UNIX. A partir del momento de su presentación la aceptación del C fue rápidamente en aumento hasta convertirse a mediados de los 80, en uno de los lenguajes más importantes y extendidos del mercado. Se escribieron numerosos compiladores e interpretes de este lenguaje para todo tipo de ordenadores, lo cual contribuyo a favorecer su programación y a aumentar por tanto su popularidad pero provoco, como contrapartida, pequeñas diferencias entre las distintas versiones que fueron apareciendo y que se alejaban peligrosamente de los estándares. Así pues, la expansión incontrolada del C generó ciertas incompatibilidades entre distintas implementaciones del lenguaje y daño seriamente una de las características más importantes con que contaba el lenguaje: su potabilidad. El Instituto Americano de Estándares propuso unas normas para que fueran adoptadas por todos los compiladores e interpretes de C con lo que se consiguió salvar todas las barreras que la expansión incontrolada del lenguaje había levantado. No obstante el C es un lenguaje que aporta importantes y deseables características, como las que se detallan a continuación:
  • Se trata de un lenguaje de propósito general y en consecuencia utilizado tanto en la programación de sistemas operativos como en las aplicaciones de los usuarios.
  • El diseño del lenguaje favorece la programación estructurada y el diseño modular.
  • Permite la programación tanto a bajo como a alto nivel.
  • Consta de un conjunto de instrucciones relativamente pequeño.
  • Es un lenguaje portable.
Comenzó con el desarrollo de la tecnología L.S.I. (Large Scale Integration o integración a gran escala) del circuito integrado en sustitución del transistor y el circuito impreso. Permitiendo reducir el espacio físico, los costos, el mantenimiento y aumentando la fiabilidad y velocidad de procesamiento.

Se generaliza el multiprocesamiento (procesamiento simultáneo de varios trabajos) o tiempo compartido y el tiempo real mediante teleproceso (procesamiento a distancia). Los trabajos eran almacenados en tarjetas perforadas. Igualmente se emplean redes de terminales periféricos conectados a la unidad central, lo que permitía utilizar la computadora desde lugares alejados. Esto permitió la descentralización de los procesos de cálculo y la agilización de las aplicaciones de gestión en la empresas. Las máquinas más difundidas para el momento eran las IBM-360, IBM-370. La miniaturización de los circuitos continuaba.

No hay comentarios:

Publicar un comentario