Historia del Perceptron

  • 1982 BCE

    Marvin Minsky y Seymour Papert

    Marvin Minsky y Seymour Papert
    El crecimiento que estaban experimentando las investigaciones sobre redes neuronales. Marvin Minsky y Seymour Papert, del
    MIT, publicaron un libro, Perceptrons, que además de contener un análisis matemático detallado del Perceptrón, consideraba que la extensión a Perceptrones multinivel (el Perceptrón original solo poseía una capa) era completamente estéril.
  • 1982 BCE

    Rumelhart, Hinton y Williams

    Rumelhart, Hinton y Williams
    el desarrollo del algoritmo back-propagation fue dado a conocer por Rumelhart, Hinton y Williams. Ese mismo año, el libro Parallel Distributed Processing, fue publicado por Rumelhart y McClelland, siendo este libro la mayor influencia para la aplicación generalizada del algoritmo back-propagation.
  • 1980 BCE

    Kunihiko Fukushima

    Kunihiko Fukushima
    desarrolló en 1980 el Neocognitrón, un modelo de red neuronal para el reconocimiento de patrones visuales.
  • 1977 BCE

    James Anderson

    James Anderson
    desarrolló un modelo lineal llamado Asociador Lineal, que consistía en elementos integradores lineales (neuronas) que sumaban sus entradas. También desarrolló una potente extensión del Asociador Lineal llamada Brain-State-in-a-Box (BSB)
  • 1967 BCE

    Stephen Grossberg

    Estudió los mecanismos de la percepción y la memoria. Grossberg realizó en 1967 una red, Avalancha, que consistía en elementos discretos con actividad que varía con el tiempo que satisface ecuaciones diferenciales continuas, para resolver actividades tales como reconocimiento continuo del habla y aprendizaje del movimiento delos brazos de un robot.
  • 1958 BCE

    Bernard Widrow y Marcial Hoff

    Bernard Widrow y Marcial Hoff
    desarrollaron el modelo ADALINE (ADAptive LINear Elements). Esta fue la primera red neuronal aplicada a un problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) y se ha usado comercialmente durante varias décadas.
  • 1957 BCE

    Frank Rosenblatt

    Frank Rosenblatt
    Perceptrón, es el modelo más antiguo de red neuronal, y se usa hoy en día de varias formas para la aplicación de reconocedor de patrones. Este modelo era capaz de generalizar; es decir, después de haber aprendido una serie de patrones era capaz de reconocer otros similares. Sin embargo, tenía una serie de limitaciones, quizás la más conocida era la de resolver el problema de la función OR y, en general, no era capaz de clasificar clases no separables linealmente.
  • 1949 BCE

    Donald Hebb

    Donald Hebb
    Tal tesis quedó avalada por el descubrimiento fundacional de las neurociencias: la neurona, una célula cuya primordial misión parece ser la de transmitir información. Además, parece hacerlo de modo relativamente simple, mediante un sistema sumatorio de pesos que hace que una neurona se dispare o no en función de los estímulos recibidos por otras neuronas (la grandísima aportación de Hebb).
  • 1943 BCE

    Warren McCulloch y Walter Pitts

    Warren McCulloch y Walter Pitts
    Concibieron los fundamentos de la computación neuronal fueron Warren McCulloch, un neurofisiólogo,y Walter Pitts, un matemático, quienes, en 1943, lanzaron una teoría acerca de la forma de trabajar de las neuronas. Ellos modelaron una red neuronal simple mediante circuitos eléctricos.
  • 1936 BCE

    Alan Turing

    Alan Turing
    fue el primero en estudiar el cerebro como una forma de ver el mundo de la computación