Redes neuronales 1 728

Linea de tiempo de redes neuronales

  • Alan Turing estudio el cerebro como una forma de ver el mundo de la computación.

    Alan Turing estudio el cerebro como una forma de ver el mundo de la computación.
    los primeros teóricos que concibieron los fundamentos de la computación neuronal fueron Warren McCulloch, un neurofisiólogo, y Walter Pitts, un matemático, quienes, en 1943, lanzaron una teoría acerca de la forma de trabajar de las neuronas (Un Cálculo Lógico de la Inminente Idea de la Actividad Nerviosa - Boletín de Matemática Biofísica 5: 115-133). Ellos modelaron una red neuronal simple mediante circuitos eléctricos.
  • Donald Hebb. Fue el primero en explicar los procesos del aprendizaje

    Donald Hebb. Fue el primero en explicar los procesos del aprendizaje
    ,Este es el fundamento de la mayoría de las funciones de aprendizaje que pueden hallarse en una red neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una neurona eran activados. También intentó encontrar semejanzas entre el aprendizaje y la actividad nerviosa
  • Karl Lashley

    Karl Lashley
    Karl Lashley. En sus series de ensayos, encontró que la información no era almacenada en forma centralizada en el cerebro sino que era distribuida encima de él.
  • Congreso de Dartmouth

    Congreso de Dartmouth
    Este Congreso frecuentemente se menciona para indicar el nacimiento de la inteligencia artificial.
  • Frank Rosenblatt comenzó el desarrollo del Perceptron.

    Frank Rosenblatt comenzó el desarrollo del Perceptron.
    Esta es la red neuronal más antigua; utilizándose hoy en día para aplicación como identificador de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado en el entrenamiento.
  • Frank Rosenblatt: Principios de Neurodinámica.

    Frank Rosenblatt: Principios de Neurodinámica.
    En este libro confirmó que, bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estado finito (Teorema de Convergencia del Perceptron).
  • Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline

    Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline
    (ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha utilizado comercialmente durante varias décadas.
  • Karl Steinbeck: Die Lernmatrix

    Karl Steinbeck: Die Lernmatrix
    Red neuronal para simples realizaciones técnicas (memoria asociativa).
  • Marvin Minsky/Seymour Papert. En este año casi se produjo la “muerte abrupta” de las Redes Neuronales

    Marvin Minsky/Seymour Papert. En este año casi se produjo la “muerte abrupta” de las Redes Neuronales
    ya que Minsky y Papert probaron (matemáticamente) que el Perceptrons no era capaz de resolver problemas relativamente fáciles, tales como 7 el aprendizaje de una función no-lineal. Esto demostró que el Perceptron era muy débil, dado que las funciones no-lineales son extensamente empleadas en computación y en los problemas del mundo real.
  • Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje

    Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje
    Desarrolló la idea básica del algoritmo de aprendizaje de propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente aclarado en 1985.
  • Stephen Grossberg: Teoría de Resonancia Adaptada (TRA).

    Stephen Grossberg: Teoría de Resonancia Adaptada (TRA).
    La Teoría de Resonancia Adaptada es una arquitectura de red que se diferencia de todas las demás previamente inventadas. La misma simula otras habilidades del cerebro: memoria a largo y corto plazo.
  • John Hopfield. Provocó el renacimiento de las redes neuronales

    John Hopfield. Provocó el renacimiento de las redes neuronales
    John Hopfield. Provocó el renacimiento de las redes neuronales con su libro: “Computación neuronal de decisiones en problemas de optimización.”
  • David Rumelhart/G. Hinton.

    David Rumelhart/G. Hinton.
    David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de propagación hacia atrás (backpropagation).