Redes neuronales

Historia de las redes neuronales artificiales

  • Alan Mathison Turing

    Alan Mathison Turing
    Formalizó los conceptos de algoritmo y computación. Estudió el cerebro humano como una forma de ver el mundo de la computación.
  • Warren Sturgis McCulloch y Walter Harry Pitts

    Warren Sturgis McCulloch y Walter Harry Pitts
    Estos autores propusieron la definición de neurona desde el punto de vista cibernético, afirmando que cada neurona posee un conjunto de entradas y una sola salida, y que cada input está afectado por un coeficiente, denominado peso.
  • Donald Olding Hebb

    Donald Olding Hebb
    Se produce un viraje en la concepción del proceso de aprendizaje del ser humano, desde el punto de vista psicológico, aprovechando la capacidad del sistema nervioso y su comportamiento.
    Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados. Intentó encontrar semejanzas entre el aprendizaje y la actividad nerviosa.
  • Karl Lashley

    Karl Lashley
    Encontró que la información no era almacenada en forma centralizada en el cerebro sino que era distribuida uniformemente por todo el cortex cerebral y no en un lugar específico.
  • John von Newmann

    John von Newmann
    Concibió un robot teórico capaz de replicarse a sí mismo. Además diseñó una computadora que trabajara con aritmética binaria, compuesta de una memoria, una unidad aritmética lógica, una unidad de control del programa y elementos de entrada y salida. Hoy día todas las computadoras tienen este esquema de construcción.
  • Marvin Minsky y Dean Edmond

    Marvin Minsky y Dean Edmond
    Construyeron el primer neurocomputador SNARC (Stochastic Neural Analog Reinforcement Computer), que funcionó bien desde el punto de vista técnico, también incluyó numerosas conexiones ocasionales entre sus diversas "neuronas", actuando como una especie de sistema nervioso capaz de superar cualquier interrupción eventual de información debido a una de las neuronas fallando.
  • Frank Rosenblatt

    Frank Rosenblatt
    Desarrolló el Perceptrón (Mark 1), una máquina capaz de aprender mediante un sistema de red neuronal que simula los procesos que se llevan a cabo en el cerebro humano. Es la red neuronal más antigua y que se utiliza hasta hoy para identificar patrones de comportamiento. Su utilidad es que permite además de la identificación de patrones la de generalizar, o sea, que podía reconocer otros patrones similares aunque no lo hubiese utilizado en la faz de entrenamiento.
  • Bernard Widrow y Marcian Hoff

    Bernard Widrow y Marcian Hoff
    Se crearon la red ADALINE (ADAptative LInear NEuron) y la introducción de una nueva y poderosa regla de aprendizaje llamada de Widrow-Hoff, conocida como algoritmo LMS permite minimizar el error medio cuadrático, definida como la diferencia entre la señal esperada y la producida a la salida del filtro adaptativo. También desarrollaron estos autores el MADALINE (Multiple ADALINE) que se aplicaron a la predicción meteorológica, controles adaptativos y reconocimiento de patrones de comportamiento.
  • Frank Rosenblatt

    Frank Rosenblatt
    Modificó la idea del perceptrón que había trabajado en 1957 que tenía dos capas únicamente (entrada y salida) para trabajar con un modelo multicapa (Multilayer Perceptron), aunque fue difícil implementarlo en la práctica debido a que no tenía un algoritmo de aprendizaje adecuado.
  • Stephen Grossberg

    Stephen Grossberg
    Propuso una red que denominó Avalancha, que tomaba elementos discretos con otros que variaban en el tiempo para satisfacer ecuaciones diferenciales continuas y que el nodo de salida de la red sea activado por un conjunto prescrito de patrones de entrada. Los parámetros explícitos en la red determinan qué conjunto de entradas es más efectivo. Se empleó para el reconocimiento del habla y el aprendizaje del movimiento de los brazos de un robot.
  • Marvin Minsky y Seymour Papert

    Marvin Minsky y Seymour Papert
    Criticaron al perceptrón, afirmando matemáticamente que no podía resolver muchos problemas simples, como por ejemplo el aprendizaje de una función no lineal. Esto hizo durante un tiempo se perdiera interés en las redes neuronales. Opinaban que una combinación de varios perceptrones podría resolver algunos problemas reales pero que no existía un algoritmo capaz de resolverlo. Estos autores hicieron una defensa de la inteligencia artificial y al rechazo de las redes neuronales.
  • Christoph von der Maslburg

    Christoph von der Maslburg
    Introduce un nuevo tipo de control dinámico, modulación sináptica, según el cual las sinapsis alternan entre un estado conductor y otro no conductor. La dinámica de esta variable se controla en una escala de tiempo rápido por correlaciones en la estructura fina temporal de las señales celulares. Su principal foco de atención estaba en la función del sistema visual para el reconocimiento facial.
  • Paul Werbos

    Paul Werbos
    Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation), que en 1986 fue perfeccionado. El algoritmo emplea un ciclo de propagación, adaptado en 2 fases, proceso de entrada a salida, retornando errores de salida a la capa oculta, llegando a todas las neuronas describiendo el error total
  • Kunihiko Fukushima

    Kunihiko Fukushima
    Desarrolló el cognitrón, que es una red neuronal artificial multicapa auto-organizadas que poseía como novedad el uso de neuronas excitadoras e inhibidoras en cada una de las capas. Cada célula de la capa final integra la información de partes enteras de la primera capa y responde selectivamente a un patrón de estímulo específico o a alguna característica.
  • Stephen Grossberg

    Stephen Grossberg
    Presentó la Teoría de Resonancia Adaptada (Adaptive Resonance Theory – ART), que es una arquitectura de red que se diferencia de todas las demás previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto plazo, recodificación o transformación a partir de un conjunto de patrones espaciales arbitrarios en otro si hay suficientes células en la corteza de la red.
  • Stephen Grossberg

    Stephen Grossberg
    Presentó un trabajo sobre la auto-organización de las redes, que sugiere un fundamento psico-fisiológico para la teoría cognitiva. Esta teoría sugiere una forma de pensar no menos que una serie de mecanismos. Los modelos probabilísticos y computadoras se han utilizado de forma complementaria para analizar datos de memoria que pueden ser modificados, unificados y fortalecidos.
  • Teuvo Kohonen

    Teuvo Kohonen
    Trabaja sobre los mapas auto-organizativos, en un estudio teórico y simulaciones sobre una red simple de elementos físicos adaptativos que recibe señales de eventos primarios y que se asignan automáticamente a un conjunto de respuestas de salida, así las respuestas tienen el mismo orden que los eventos primarios. Descubre un principio que facilita la formación automática de mapas topológicamente correctos, con retroalimentación lateral.
  • Kunihiko Fukushima

    Kunihiko Fukushima
    Crea el neocognitrón, que es un modelo para el reconocimiento de patrones visuales y reconocimiento de caracteres escritos a mano y está basado en la estructura del nervio óptico humano, es mucho más compleja que la anterior y también posee retroalimentación.
  • Teuvo Kohonen

    Teuvo Kohonen
    Presentó la red denominada mapas auto-organizados o (Self Organizing Map –SOM), que es una red sencilla, tiene sólo una capa de neuronas de entrada y otra de salida, es no supervisada y con entrenamiento competitivo. Las neuronas se organizan en muchas zonas, trabaja con conexiones hacia adelante o feedforward. Permite detectar características, regularidades, patrones y categorías.
  • John Hopfield

    John Hopfield
    Estudió un modelo para una gran red de neuronas que lo llamó de respuesta graduada, o de relación sigmoide en la entrada y en la salida. Trabajó en una red que lleva su nombre y que es una variante del Asociador Lineal de Anderson, demostró que se emplea como sistema de memoria asociativa con unidades binarias, o sea que sólo tienen dos valores posibles y el valor se determina si superan o no a un cierto umbral. Posee capacidad de generalización y corrección de errores.
  • David H. Ackley, Geoffrey E. Hinton y Terrance J. Sejnowski

    David H. Ackley, Geoffrey E. Hinton y Terrance J. Sejnowski
    Crearon la máquina de Boltzmann, que son redes recurrentes simétricas pero con neuronas ocultas, que permiten obtener eficiencia en redes paralelas. También se dispone de unidades binarias como con Hopfield, pero aquí estas unidades son estocásticas en la función de salida.
    Luego aparecen las Máquinas de Boltzmann restringidas, en donde se tiene una estructura fija en donde aparecen una capa de neuronas ocultas y otras visibles, pero sin conexiones entre las que se encuentran en la misma capa.
  • Robert Hecht-Nielsen

    Robert Hecht-Nielsen
    La red Counterpropagation es una red competitiva, diseñada para funcionar como una tabla de búsqueda auto-programada con la habilidad adicional para interpolar entre entradas. Utiliza el modelo de Kohonen para acelerar el proceso de aprendizaje. A esta red se le puede imaginar como una Tabla de Búsqueda, que combina aprendizaje no supervisado (Competitivo) y supervisado (Regla delta). Tiene un aprendizaje off line. Su entrenamiento ocurre mas rápido que la Backpropagation.
  • David E. Rumelhart, Geoffrey E. Hinton y Ronald J. Williams

    David E. Rumelhart, Geoffrey E. Hinton y Ronald J. Williams
    Desarrollaron nuevos algoritmos de entrenamiento para perceptrones multicapa. Para ello usaron el método conocido como regla delta generalizada para el aprendizaje por retropropagación. Dicha regla se ha podía aplicar en algunos problemas de interés práctico. Por este motivo, las máquinas de tipo perceptrón multicapa constituyen uno de los principales modelos de redes neuronales en uso.
  • Rummelhart, D. E., J. L. McClelland y el grupo PDP

    Rummelhart, D. E., J. L. McClelland y el grupo PDP
    El procesamiento distribuido en paralelo (o PDP) es una nueva teoría sobre el aprendizaje que propone una explicación al fenómeno de la adquisición de conocimiento basada en los procesos neuronales que tienen lugar en el cerebro. Se trata de una teoría de la ciencia cognitiva, que en su concepción del aprendizaje se diferencia tanto del conductismo como del mentalismo.
    El PDP es una de las variantes del conexionismo, que describe los procesos cognitivos en términos de conexiones entre neuronas.
  • Terrence Sejnowski y Charles Rosenberg

    Terrence Sejnowski y Charles Rosenberg
    El sistema llamado NetTalk convierte texto en fonemas y con la ayuda de un sintetizador de voz (Dectalk) genera voz a partir de un texto escrito.
    La ventaja que ofrece la computación neuronal frente a las tecnologías tradicionales en la conversión texto-voz es la propiedad de eliminar la necesidad de programar un complejo conjunto de reglas de pronunciación en el ordenador.