La informatica

  • Feb 15, 1000

    Historia

    La informática, también llamada computación en| América,1 es una ciencia que estudia métodos, técnicas, procesos, con el fin de almacenar, procesar y transmitir información y datos en formato digital. La informática se ha desarrollado rápidamente a partir de la segunda mitad del siglo XX, con la aparición de tecnologías tales como el circuito integrado, el Internet, y el teléfono móvil. Se define como la rama de la tecnología que estudia el tratamiento automático de la información
  • Period: Feb 15, 1000 to Feb 15, 1500

    Historia de la informatica

  • Period: Feb 15, 1000 to

    Historia de la informatica

  • Primera generación

    Se trata de ordenadores construidos con válvulas electrónicas de vacío. Tras unos primeros intentos durante la Segunda Guerra Mundial, surge en 1947 el que podemos considerar como primer ordenador digital de la historia: el ENIAC, creado en Estados Unidos. Este ordenador tenía más de 18000 válvulas, ocupaba una superficie de 150 m2, realizaba unas 5000 operaciones por segundo y necesitaba un sistema especial de refrigeración para liberar el enorme calor que generaba.
  • Segunda generacion

    En esta etapa los transistores pasan a sustituir a las válvulas de vacío. El empleo de transistores provocó una disminución en el tamaño de los equipos y un menor consumo eléctrico. La consecuencia inmediata de estos cambios fue el aumento de la potencia de procesamiento y el abaratamiento de los equipos.
  • Tercera generacion

    Los transistores se agrupan en los denominados circuitos integrados o chips que se montan sobre placas de circuito impreso. Aumenta grandemente la velocidad de procesamiento y aparecen los primeros sistemas operativos. En esta generación destaca el IBM 360 como el primer ordenador creado íntegramente con circuitos integrados.
  • Cuarta generacion

    En esta generación se llega a tal grado de integración de los componentes electrónicos que todos los circuitos de la Unidad Central de Proceso se agrupan en un solo chip denominado microprocesador. Durante estos años se produce un importante aumento de la capacidad de cálculo y una gran reducción del tamaño de las máquinas. Aparecen nuevos lenguajes de programación de alto nivel como son Basic y Pascal.
  • Quinta generacion

    : Es la generación del multimedia y las intercambio de recursos, mensajes e información entre los ordenadores conectados a ella. Los ordenadores personales siguen aumentando en potencia bajando de precio y su utilización se generaliza en los hogares. Gracias a los avances de la electrónica surgen los microprocesadores de nueva generación que integran millones de transistores en un solo chip y son capaces de trabajar a velocidades de varios gigahercios