warren mcculloch walter pitts por francisco marÍn mira

25
Warren Warren McCulloch McCulloch Walter Pitts Walter Pitts Por FRANCISCO MARÍN MIRA

Upload: ibbie-quiroz

Post on 22-Jan-2016

217 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

Warren Warren McCullochMcCullochWalter PittsWalter Pitts

Por

FRANCISCO MARÍN MIRA

Page 2: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

1899: Nacimiento de Warren Sturgis 1899: Nacimiento de Warren Sturgis McCullochMcCulloch

1923: Nacimiento de Walter Pitts1923: Nacimiento de Walter Pitts 1927: McCulloch: Doctorado en psicología. 1927: McCulloch: Doctorado en psicología. 1943: Se propone uno de los primeros 1943: Se propone uno de los primeros

modelos matemáticos de la neuronamodelos matemáticos de la neuronaMcCulloch-Pitts. McCulloch-Pitts. ““A logical calculus of the A logical calculus of the ideas immanent in nervous activityideas immanent in nervous activity””

1947: McCullch-Pitts. “1947: McCullch-Pitts. “How we know How we know universals: the perception of visual and universals: the perception of visual and auditory forms”auditory forms”

1949: Donald Hebb propone una de las 1949: Donald Hebb propone una de las primeras reglas de aprendizajeprimeras reglas de aprendizaje

Introducción (I)Introducción (I)

Page 3: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

1956: Se acuña el término de Inteligencia 1956: Se acuña el término de Inteligencia ArtificialArtificial

1957: Frank Rosenblatt presentó el 1957: Frank Rosenblatt presentó el PerceptrónPerceptrón

Años 60: modelos basados en el Perceptrón: Años 60: modelos basados en el Perceptrón: Adaline y MadalineAdaline y Madaline

1969: Mueren McCulloch y Pitts1969: Mueren McCulloch y Pitts 1969: Back propagation1969: Back propagation Posteriormente, otros modelos permiten un Posteriormente, otros modelos permiten un

aprendizaje no supervisado (mapa auto-aprendizaje no supervisado (mapa auto-organizativo de Kohonen, los basados en la organizativo de Kohonen, los basados en la Teoría de Resonancia Adaptativa (ART) de Teoría de Resonancia Adaptativa (ART) de Grossberg y Carpenter, o los modelos de Grossberg y Carpenter, o los modelos de control motor de Bullock, Gaudiano y control motor de Bullock, Gaudiano y Grossberg, entre otros) Grossberg, entre otros)

Introducción (II)Introducción (II)

Page 4: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

McCulloch y Pitts impulsaron el nacimiento de la I.A. proponiendo McCulloch y Pitts impulsaron el nacimiento de la I.A. proponiendo la definición de la neuronala definición de la neurona

Con estas ideas nace la cibernética y más tarde el término Con estas ideas nace la cibernética y más tarde el término Inteligencia ArtificialInteligencia Artificial

McCulloch y Pitts. McCulloch y Pitts. A logical calculus of the ideas immanent in A logical calculus of the ideas immanent in nervous activity:nervous activity: una Máquina de Turing podría ser implementada en una red finita de una Máquina de Turing podría ser implementada en una red finita de

neuronas formalesneuronas formales 1947: aproximaciones para diseñar “redes nerviosas” para reconocer 1947: aproximaciones para diseñar “redes nerviosas” para reconocer

entradas visuales entradas visuales Las redes neuronales actuales se basan en el modelo de neurona Las redes neuronales actuales se basan en el modelo de neurona

descrito en este artículodescrito en este artículo Cada neurona consta de un conjunto de entradas y una sola Cada neurona consta de un conjunto de entradas y una sola

salida. Cada entrada está afectada por un coeficiente, salida. Cada entrada está afectada por un coeficiente, denominado peso.denominado peso.

La cantidad calculada como la suma del producto de cada entrada La cantidad calculada como la suma del producto de cada entrada multiplicada por su respectivo peso se denomina activación de la multiplicada por su respectivo peso se denomina activación de la neurona neurona

Una de las primeras arquitecturas neuronales donde se aplica es Una de las primeras arquitecturas neuronales donde se aplica es el Perceptrónel Perceptrón

Los pesos de las neuronas se modifican sometiendo a la red a un Los pesos de las neuronas se modifican sometiendo a la red a un entrenamiento, mediante una regla de aprendizaje.entrenamiento, mediante una regla de aprendizaje.

Introducción (III)Introducción (III)

Page 5: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

La Inteligencia ArtificialLa Inteligencia Artificial Se puede decir que la Inteligencia Artificial Se puede decir que la Inteligencia Artificial

empezó a surgir en 1943 cuando empezó a surgir en 1943 cuando Warren Warren McCulloch y Walter PittsMcCulloch y Walter Pitts propusieron un propusieron un modelo de neurona del cerebro humano y modelo de neurona del cerebro humano y animalanimal, una abstracción que proporcionó una , una abstracción que proporcionó una representación simbólica de la actividad cerebral.representación simbólica de la actividad cerebral.

Podríamos situar el origen de los modelos Podríamos situar el origen de los modelos conexionistas con la conexionistas con la definición de la neurona definición de la neurona formal formal dada por McCulloch y Pitts en dada por McCulloch y Pitts en 19431943 como como un un dispositivo binario con varias entradas y dispositivo binario con varias entradas y salidassalidas..

Más adelante, Más adelante, Norbert WienerNorbert Wiener elaboró elaboró con con estas ideasestas ideas junto con otras, dentro del mismo junto con otras, dentro del mismo campo, lo que se llamó “campo, lo que se llamó “cibernéticacibernética”. De aquí ”. De aquí nacería, sobre los años 50, la Inteligencia nacería, sobre los años 50, la Inteligencia Artificial.Artificial.

Page 6: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

McCulloch (I)McCulloch (I) Warren Sturgis McCullochWarren Sturgis McCulloch ( 1899 - 1969( 1899 - 1969 ) ) Nació en Orange, New Jersey el Nació en Orange, New Jersey el

16 de Noviembre de 1899. 16 de Noviembre de 1899. Neurofisiólogo y CibernéticoNeurofisiólogo y Cibernético Estudió en Yale (filosofía y Estudió en Yale (filosofía y

psicología hasta 1921)psicología hasta 1921)y en Columbia (psicología, graduado en y en Columbia (psicología, graduado en

1923). Recibiendo su doctorado en 1923). Recibiendo su doctorado en 1927 en Nueva York.1927 en Nueva York.

Page 7: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

McCulloch (II)McCulloch (II) Recordado por su trabajo con Dusser de Barenne Recordado por su trabajo con Dusser de Barenne

(en Yale) y después con Walter Pitts (en Illinois) (en Yale) y después con Walter Pitts (en Illinois) que posibilitó la fundación de ciertas teorías de la que posibilitó la fundación de ciertas teorías de la inteligencia en un número de artículos clásicos, inteligencia en un número de artículos clásicos, incluyendo incluyendo “A logical calculus of the ideas “A logical calculus of the ideas immanent in nervous activity”immanent in nervous activity” (1943) y (1943) y “How we “How we know universals: the perception of visual and know universals: the perception of visual and auditory forms”auditory forms” (1947), ambos en el “ (1947), ambos en el “Bulletin of Bulletin of Mathematical Biophysics”Mathematical Biophysics”. .

En el artículo de 1943 demostraron que una En el artículo de 1943 demostraron que una Máquina de Turing podría ser implementada en Máquina de Turing podría ser implementada en una red finita de neuronas formales, donde la una red finita de neuronas formales, donde la neurona es la unidad base lógica del cerebro. En neurona es la unidad base lógica del cerebro. En el artículo de 1947 ofrecieron aproximaciones el artículo de 1947 ofrecieron aproximaciones para diseñar “redes nerviosas” para reconocer para diseñar “redes nerviosas” para reconocer entradas visuales a pesar de los cambios de entradas visuales a pesar de los cambios de orientación o de tamaño.orientación o de tamaño.

Page 8: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

McCulloch (III)McCulloch (III) Desde 1952 trabajó en el Laboratorio de Desde 1952 trabajó en el Laboratorio de

Investigación de Electrónica del MIT (Instituto Investigación de Electrónica del MIT (Instituto de Tecnología de Massachusetts), principalmente de Tecnología de Massachusetts), principalmente en modelado de Redes Neuronales.en modelado de Redes Neuronales.

Su equipo examinó el sistema visual de la rana, Su equipo examinó el sistema visual de la rana, en consideración con el artículo de 1947, en consideración con el artículo de 1947, descubriendo que el ojo proporciona al cerebro descubriendo que el ojo proporciona al cerebro información que es, en cierto sentido, organizada información que es, en cierto sentido, organizada e interpretada, en vez de únicamente transmitir e interpretada, en vez de únicamente transmitir la imagen.la imagen.

McCulloch fue miembro de la American Society McCulloch fue miembro de la American Society for Cybernetics y su primer presidente desde for Cybernetics y su primer presidente desde 1967 al 1968. 1967 al 1968.

Page 9: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

McCulloch (IV)McCulloch (IV) Conoció a Alan Turing, que discrepó con Conoció a Alan Turing, que discrepó con

él llegando a llamarle charlatán.él llegando a llamarle charlatán.

Warren McCulloch tiene un notable Warren McCulloch tiene un notable rango de intereses y talentos. A parte de rango de intereses y talentos. A parte de sus contribuciones a la ciencia, escribió sus contribuciones a la ciencia, escribió poesía (sonetos) y diseñó edificios y un poesía (sonetos) y diseñó edificios y un embalse para su granja de Old Lyme, embalse para su granja de Old Lyme, Conneticut.Conneticut.

Murió en Cambridge en 1969.Murió en Cambridge en 1969.

Page 10: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

Pitts (I)Pitts (I) Walter PittsWalter Pitts ( 1923 - 1969( 1923 - 1969 ) ) Nació en Detroit el 23 de AbrilNació en Detroit el 23 de Abril

de 1923.de 1923. Matemático que trabajó en el campoMatemático que trabajó en el campo

de la psicología cognitiva.de la psicología cognitiva. Aparentemente escapó de su casaAparentemente escapó de su casa

a los 15 años.a los 15 años. Aprendió por su cuenta lógica yAprendió por su cuenta lógica y

matemáticas y era capaz de leer en matemáticas y era capaz de leer en numerosos lenguajes, incluyendonumerosos lenguajes, incluyendoGriego y Latin.Griego y Latin.

Page 11: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

Pitts (II)Pitts (II) Con 12 años pasó tres dias en una biblioteca Con 12 años pasó tres dias en una biblioteca

leyendo “Principia Mathematica” y mandó una leyendo “Principia Mathematica” y mandó una carta a Bertrand Russell indicandole lo que él carta a Bertrand Russell indicandole lo que él consideraba problemas serios en la primera consideraba problemas serios en la primera mitad del primer volumen. Russell se mostró mitad del primer volumen. Russell se mostró agradecido y le invitó a estudiar en el Reino agradecido y le invitó a estudiar en el Reino Unido. Aunque esta oferta fue aparentemente Unido. Aunque esta oferta fue aparentemente rechazada, Pitts decidió estudiar lógica.rechazada, Pitts decidió estudiar lógica.

Acudió a clases de la Universidad de Chicago, sin Acudió a clases de la Universidad de Chicago, sin inscribirse como estudiante.inscribirse como estudiante.

Obtuvo un trabajo en la universidad gracias a un Obtuvo un trabajo en la universidad gracias a un filósofo alemán (Rudolf Carnap) al que le filósofo alemán (Rudolf Carnap) al que le presentó su propio libro de lógica lleno de presentó su propio libro de lógica lleno de correcciones. Pitts por ese tiempo no tenía hogar correcciones. Pitts por ese tiempo no tenía hogar ni ningún ingreso.ni ningún ingreso.

Page 12: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

Pitts (III)Pitts (III) Más tarde Warren McCulloch llegó a la Universidad y, a Más tarde Warren McCulloch llegó a la Universidad y, a

principios de 1942, invitó a Pitts, que seguía sin hogar, a principios de 1942, invitó a Pitts, que seguía sin hogar, a vivir con su familia.vivir con su familia.

McCulloch y Pitts trabajaban juntos. Pitts estaba McCulloch y Pitts trabajaban juntos. Pitts estaba familiarizado con el trabajo en informática de Gottfried familiarizado con el trabajo en informática de Gottfried Leibniz y consideraron la cuestión de si el sistema nervioso Leibniz y consideraron la cuestión de si el sistema nervioso podía ser considerado un tipo de maquina de computación podía ser considerado un tipo de maquina de computación universal, como la describida por Leibniz. Esto llevó a su universal, como la describida por Leibniz. Esto llevó a su determinante artículo de redes neuronales determinante artículo de redes neuronales “A Logical “A Logical Calculus of Ideas Immanent in Nervous Activity”.Calculus of Ideas Immanent in Nervous Activity”.

En 1943, Jerome Lettvin, con el que Pitts obtuvo una gran En 1943, Jerome Lettvin, con el que Pitts obtuvo una gran amistad en la universidad, le presentó a Norbert Wiener en amistad en la universidad, le presentó a Norbert Wiener en el MIT, quien había perdido a su “mano derecha”. Su el MIT, quien había perdido a su “mano derecha”. Su primer encuentro, en el que estuvieron discutiendo el primer encuentro, en el que estuvieron discutiendo el trabajo de Wiener, fue tan bien que Pitts se trasladó a trabajo de Wiener, fue tan bien que Pitts se trasladó a Boston para trabajar con Wiener. Boston para trabajar con Wiener.

En 1944 Pitts fue contratado por Kellex Corp., parte del En 1944 Pitts fue contratado por Kellex Corp., parte del Proyecto de Energía Atómica.Proyecto de Energía Atómica.

Page 13: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

Pitts (IV)Pitts (IV) En 1951 Wiener convenció a Jerry Wiesner para En 1951 Wiener convenció a Jerry Wiesner para

contratar algunos científicos del sistema nervioso. contratar algunos científicos del sistema nervioso. Un grupo fue estrablecido con Pitts, Lettvin, Un grupo fue estrablecido con Pitts, Lettvin, McCulloch y Pat Wall.McCulloch y Pat Wall.

Pitts escribió una larga tesis de las propiedades de Pitts escribió una larga tesis de las propiedades de las redes neuronales conectadas en tres las redes neuronales conectadas en tres dimensiones. Lettvin le describió como el genio del dimensiones. Lettvin le describió como el genio del grupo.grupo.

Pitts también es descrito como un excéntrico, Pitts también es descrito como un excéntrico, negando que su nombre se hiciese público. Rechazó negando que su nombre se hiciese público. Rechazó todas las ofertas de graduados avanzados o todas las ofertas de graduados avanzados o posiciones oficiales en el MIT ya que tendría que posiciones oficiales en el MIT ya que tendría que firmar con su nombre.firmar con su nombre.

Page 14: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

Pitts (V)Pitts (V) Wiener inesperadamente se puso en contra de Wiener inesperadamente se puso en contra de

McCulloch, a cuenta de su mujer que odiaba a McCulloch, a cuenta de su mujer que odiaba a McCulloch, y separó las relaciones con cualquiera que McCulloch, y separó las relaciones con cualquiera que estubiese relacionado con él, incluido Pitts. Esto empujó estubiese relacionado con él, incluido Pitts. Esto empujó a Pitts a un “suicidio cognitivo”, un aislamiento social a Pitts a un “suicidio cognitivo”, un aislamiento social del que nunca se recuperaría. Pitts quemó el manuscrito del que nunca se recuperaría. Pitts quemó el manuscrito sobre las redes tridimensionales y prestó poco más sobre las redes tridimensionales y prestó poco más interés en el trabajo. La única excepción fué una interés en el trabajo. La única excepción fué una colaboración con Robert Gesteland que produjo un colaboración con Robert Gesteland que produjo un artículo sobre el olfato.artículo sobre el olfato.

Pitts murió en 1969.Pitts murió en 1969.

El modelo matemático de una neurona se llama El modelo matemático de una neurona se llama actualmente la neurona de McCulloch-Pitts. La actualmente la neurona de McCulloch-Pitts. La formulación teórica de la actividad neuronal del cerebro formulación teórica de la actividad neuronal del cerebro es el legado permanente de Walter Pitts y Warren es el legado permanente de Walter Pitts y Warren McCullch a las ciencias cognitivas.McCullch a las ciencias cognitivas.

Page 15: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

La Neurona McCulloch-La Neurona McCulloch-Pitts (I)Pitts (I)

McCulloch y Pitts propusieron en 1943 uno de los McCulloch y Pitts propusieron en 1943 uno de los primeros modelos matemáticos de una neurona, del que primeros modelos matemáticos de una neurona, del que se basan las redes neuronales actuales.se basan las redes neuronales actuales.

En este modelo, cada neurona consta de un conjunto de En este modelo, cada neurona consta de un conjunto de entradas, Si, y una sola salida Sj. Cada entrada i está entradas, Si, y una sola salida Sj. Cada entrada i está afectada por un coeficiente que se denomina peso y que afectada por un coeficiente que se denomina peso y que se representa por wij. El subíndice i refleja que el peso se representa por wij. El subíndice i refleja que el peso afecta a la entrada i, y el subíndice j que se trata de la afecta a la entrada i, y el subíndice j que se trata de la neurona j.neurona j.

La cantidad calculada como la suma del producto de cada La cantidad calculada como la suma del producto de cada entrada multiplicada por su respectivo peso se denomina entrada multiplicada por su respectivo peso se denomina activación de la neurona xj. La salida Sj de la neurona es activación de la neurona xj. La salida Sj de la neurona es una función de la activación de ésta. Es decir:una función de la activación de ésta. Es decir:

xj = Si*wij + Qjxj = Si*wij + QjSj = f(xj)Sj = f(xj)

Donde el término Qj es un valor umbral y f(xj) es una Donde el término Qj es un valor umbral y f(xj) es una función de la activación de la neurona.función de la activación de la neurona.

Page 16: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

La Neurona McCulloch-La Neurona McCulloch-Pitts (II)Pitts (II)

Una de las primeras arquitecturas neuronales donde se Una de las primeras arquitecturas neuronales donde se aplica es el Perceptrón, que utiliza la siguiente función de aplica es el Perceptrón, que utiliza la siguiente función de salida:salida:

Sj=0Sj=0 si xj < hsi xj < hSj=1Sj=1 si xj>=hsi xj>=h

donde la constante h se denomina donde la constante h se denomina umbralumbral. Esta es una . Esta es una función de salida de tipo binaria, y existen otras de tipo función de salida de tipo binaria, y existen otras de tipo lineal puro, lineal con umbral, y sigmoidea, entre otras. lineal puro, lineal con umbral, y sigmoidea, entre otras.

Page 17: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

La Neurona McCulloch-La Neurona McCulloch-Pitts (III)Pitts (III)

En este modelo tan sencillo puede verse que la activación En este modelo tan sencillo puede verse que la activación de la neurona depende del valor que tomen los pesos y las de la neurona depende del valor que tomen los pesos y las entradas, de forma que la variación de éstos origina entradas, de forma que la variación de éstos origina distintas salidas para la misma entrada a la neurona. distintas salidas para la misma entrada a la neurona.

En la práctica, los pesos de las neuronas se modifican En la práctica, los pesos de las neuronas se modifican sometiendo a la red a un entrenamiento, permitiendo que sometiendo a la red a un entrenamiento, permitiendo que la red realice una función determinada. Esta es la la red realice una función determinada. Esta es la característica que diferencia a una red neuronal de una característica que diferencia a una red neuronal de una máquina algorítmica clásica: una red neuronal no se máquina algorítmica clásica: una red neuronal no se programa, se «educa». programa, se «educa».

La red es capaz de retener y asociar el conocimiento a La red es capaz de retener y asociar el conocimiento a través de la adaptación de los pesos de las neuronas través de la adaptación de los pesos de las neuronas siguiendo siguiendo una regla de aprendizajeuna regla de aprendizaje. Estas reglas son . Estas reglas son ecuaciones expresadas en función de las entradas y ecuaciones expresadas en función de las entradas y salidas de las neuronas y describen la forma de variación salidas de las neuronas y describen la forma de variación de los pesos. En definitiva, son el instrumento empleado de los pesos. En definitiva, son el instrumento empleado por las neuronas para adaptarse a la información que se por las neuronas para adaptarse a la información que se le presenta. le presenta.

Page 18: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

La Neurona McCulloch-La Neurona McCulloch-Pitts (IV)Pitts (IV)

El aprendizaje de una red se puede producir de tres El aprendizaje de una red se puede producir de tres formas:formas:

Aprendizaje supervisadoAprendizaje supervisado: consiste en introducir una serie de : consiste en introducir una serie de patrones de entrada a la red y a su vez mostrar la salida que se patrones de entrada a la red y a su vez mostrar la salida que se quiere tener. La red es capaz de ajustar los pesos de las neuronas quiere tener. La red es capaz de ajustar los pesos de las neuronas de forma que a la presentación posterior de esos patrones de de forma que a la presentación posterior de esos patrones de entrada la red responde con salida memorizada.entrada la red responde con salida memorizada.

Aprendizaje no supervisadoAprendizaje no supervisado: se presentan los patrones de : se presentan los patrones de entrada a la red y ésta los clasifica en categorías según sus rasgos entrada a la red y ésta los clasifica en categorías según sus rasgos más sobresalientes.más sobresalientes.

Aprendizaje autosupervisadoAprendizaje autosupervisado: la propia red corrige los errores : la propia red corrige los errores en la interpretación empleando una realimentación.en la interpretación empleando una realimentación.

Una de las primeras reglas de aprendizaje fue propuesta Una de las primeras reglas de aprendizaje fue propuesta por Donald Hebb en 1949.por Donald Hebb en 1949.

Esta se basa en un hecho biológico constatado: cuando Esta se basa en un hecho biológico constatado: cuando dos neuronas se activan simultáneamente su conexión se dos neuronas se activan simultáneamente su conexión se refuerza.refuerza.

Page 19: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

Historia Redes Historia Redes Neuronales (I)Neuronales (I)

Partiendo de que las redes neuronales se Partiendo de que las redes neuronales se fundamentan en el sistema nervioso humano fundamentan en el sistema nervioso humano deberíamos remontarnos a los tiempos de Galeno en deberíamos remontarnos a los tiempos de Galeno en los que ya se tenía un conocimiento considerable de los que ya se tenía un conocimiento considerable de éste. Sin embargo, los verdaderos avances en éste. Sin embargo, los verdaderos avances en neurología se produjeron a partir de la segunda mitad neurología se produjeron a partir de la segunda mitad del siglo XIX. Investigadores ilustres de esta época del siglo XIX. Investigadores ilustres de esta época son Jackson, Ramón y Cajal y Golgi entre otros. son Jackson, Ramón y Cajal y Golgi entre otros.

Fue en 1943 cuando Warren McCulloch y Walter Pitts Fue en 1943 cuando Warren McCulloch y Walter Pitts propusieron el clásico modelo de neurona en el que se propusieron el clásico modelo de neurona en el que se basan las redes neuronales actuales. Seis años basan las redes neuronales actuales. Seis años después, en 1949, en su libro después, en 1949, en su libro The Organization of The Organization of BehaviorBehavior, Donald Hebb presentaba su conocida regla , Donald Hebb presentaba su conocida regla de aprendizaje. de aprendizaje.

Page 20: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

Historia Redes Historia Redes Neuronales (II)Neuronales (II)

En 1957, Frank Rosenblatt presentó el En 1957, Frank Rosenblatt presentó el PerceptronPerceptron, una , una red neuronal con aprendizaje supervisado cuya regla de red neuronal con aprendizaje supervisado cuya regla de aprendizaje era una modificación de la propuesta por aprendizaje era una modificación de la propuesta por Hebb. El Perceptron trabaja con patrones de entrada Hebb. El Perceptron trabaja con patrones de entrada binarios, y su funcionamiento, por tratarse de una red binarios, y su funcionamiento, por tratarse de una red supervisada, se realiza en dos fases: una primera en la que supervisada, se realiza en dos fases: una primera en la que se presentan las entradas y la salidas deseadas; en esta se presentan las entradas y la salidas deseadas; en esta fase la red aprende la salida que debe dar para cada fase la red aprende la salida que debe dar para cada entrada. entrada.

La principal aportación del Perceptron es que la La principal aportación del Perceptron es que la adaptación de los pesos se realiza teniendo en cuenta el adaptación de los pesos se realiza teniendo en cuenta el error entre la salida que da la red y la salida que se desea. error entre la salida que da la red y la salida que se desea.

En la fase siguiente, de operación, la red «es capaz» de En la fase siguiente, de operación, la red «es capaz» de responder adecuadamente cuando se le vuelven a responder adecuadamente cuando se le vuelven a presentar los patrones de entrada. Se crearon grandes presentar los patrones de entrada. Se crearon grandes expectativas sobre sus aplicaciones, que posteriormente expectativas sobre sus aplicaciones, que posteriormente se tornaron en gran decepción cuando en 1969 Minsky y se tornaron en gran decepción cuando en 1969 Minsky y Papert demostraron las grandes limitaciones de esta red. Papert demostraron las grandes limitaciones de esta red.

Page 21: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

Historia Redes Historia Redes Neuronales (III)Neuronales (III)

En los años 60 se propusieron otros dos modelos, En los años 60 se propusieron otros dos modelos, también supervisados, basados en el Perceptron de también supervisados, basados en el Perceptron de Rosenblatt denominados Rosenblatt denominados AdalineAdaline y y MadalineMadaline. .

En estos, la adaptación de los pesos se realiza En estos, la adaptación de los pesos se realiza teniendo en cuenta el error, calculado como la teniendo en cuenta el error, calculado como la diferencia entre la salida deseada y la dada por la red, diferencia entre la salida deseada y la dada por la red, al igual que en el Perceptron. al igual que en el Perceptron.

Sin embargo, la regla de aprendizaje empleada es Sin embargo, la regla de aprendizaje empleada es distinta. Se define una función error para cada distinta. Se define una función error para cada neurona que da cuenta del error cometido para cada neurona que da cuenta del error cometido para cada valor posible de los pesos cuando se presenta una valor posible de los pesos cuando se presenta una entrada a la neurona. Así, la regla de aprendizaje hace entrada a la neurona. Así, la regla de aprendizaje hace que la variación de los pesos se produzca en la que la variación de los pesos se produzca en la dirección y sentido contrario del vector gradiente del dirección y sentido contrario del vector gradiente del error. A esta regla de aprendizaje se la denomina error. A esta regla de aprendizaje se la denomina Delta. Delta.

Page 22: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

Historia Redes Historia Redes Neuronales (IV)Neuronales (IV)

La era moderna de las redes neuronales artificiales surge con la La era moderna de las redes neuronales artificiales surge con la técnica de aprendizaje de propagación hacia atrás o técnica de aprendizaje de propagación hacia atrás o Back Back PropagationPropagation. .

La contribución de Minsky y Papert fue la de demostrar que una La contribución de Minsky y Papert fue la de demostrar que una red del tipo Perceptron no es capaz de aprender todas las posibles red del tipo Perceptron no es capaz de aprender todas las posibles combinaciones entre entradas y salidas. combinaciones entre entradas y salidas.

La solución del problema consiste en añadir capas intermedias de La solución del problema consiste en añadir capas intermedias de neuronas, introduciendo de esta forma el problema de cómo neuronas, introduciendo de esta forma el problema de cómo enseñar a estas capas intermedias. Aquí es donde tiene enseñar a estas capas intermedias. Aquí es donde tiene importancia el algoritmo de propagación hacia atrás. importancia el algoritmo de propagación hacia atrás.

En éste se compara la salida real con la salida deseada. La En éste se compara la salida real con la salida deseada. La diferencia entre ambas constituye un error que se propaga hacia diferencia entre ambas constituye un error que se propaga hacia atrás desde la capa de salida hasta la de entrada permitiendo así la atrás desde la capa de salida hasta la de entrada permitiendo así la adaptación de los pesos de las neuronas intermedias mediante una adaptación de los pesos de las neuronas intermedias mediante una regla de aprendizaje Delta. Sin embargo, también tiene sus regla de aprendizaje Delta. Sin embargo, también tiene sus limitaciones.limitaciones.

Posteriormente se han desarrollado otros modelos que permiten Posteriormente se han desarrollado otros modelos que permiten un aprendizaje no supervisado como el mapa auto-organizativo de un aprendizaje no supervisado como el mapa auto-organizativo de Kohonen, los basados en la Teoría de Resonancia Adaptativa (ART) Kohonen, los basados en la Teoría de Resonancia Adaptativa (ART) de Grossberg y Carpenter, o los modelos de control motor de de Grossberg y Carpenter, o los modelos de control motor de Bullock, Gaudiano y Grossberg, entre otros.Bullock, Gaudiano y Grossberg, entre otros.

Page 23: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

Referencias (I)Referencias (I) http://www.wikipedia.orghttp://www.wikipedia.org McCulloch, Warren S. (1965), McCulloch, Warren S. (1965), Embodiments Embodiments

of Mindof Mind, MIT Press, Cambridge, MA., MIT Press, Cambridge, MA. Talking Nets: An Oral History of Neural Talking Nets: An Oral History of Neural

Networks, Edited by James A. Anderson and Networks, Edited by James A. Anderson and Edward Rosenfeld, 1998. Edward Rosenfeld, 1998. The interview with The interview with Jerome Lettvin discusses Walter Pitts.Jerome Lettvin discusses Walter Pitts.

Pitts, Walter, MIT Encyclopedia of Cognitive Pitts, Walter, MIT Encyclopedia of Cognitive Science. Science. ((http://cognet.mit.edu/MITECS/Entry/lettvinhttp://cognet.mit.edu/MITECS/Entry/lettvin1)1)

Page 24: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

Referencias (II)Referencias (II)

PERCEPTRÓN:PERCEPTRÓN:

Freund, Y. and Schapire, R. E. 1998. Large margin classification Freund, Y. and Schapire, R. E. 1998. Large margin classification using the perceptron algorithm. In Proceedings of the 11th using the perceptron algorithm. In Proceedings of the 11th Annual Conference on Computational Learning Theory (COLT' Annual Conference on Computational Learning Theory (COLT' 98). 98). ACM Press.ACM Press.

Gallant, S. I. (1990). Perceptron-based learning algorithms. IEEE Gallant, S. I. (1990). Perceptron-based learning algorithms. IEEE Transactions on Neural Networks, vol. 1, no. 2, pp. 179-191.Transactions on Neural Networks, vol. 1, no. 2, pp. 179-191.

Rosenblatt, Frank (1958), The Perceptron: A Probabilistic Model Rosenblatt, Frank (1958), The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain, Cornell for Information Storage and Organization in the Brain, Cornell Aeronautical Laboratory, Psychological Review, v65, No. 6, pp. Aeronautical Laboratory, Psychological Review, v65, No. 6, pp. 386-408.386-408.

Minsky M L and Papert S A 1969 Minsky M L and Papert S A 1969 PerceptronsPerceptrons (Cambridge, MA: (Cambridge, MA: MIT Press)MIT Press)

Novikoff, A. B. (1962). On convergence proofs on perceptrons. Novikoff, A. B. (1962). On convergence proofs on perceptrons. Symposium on the Mathematical Theory of Automata, 12, 615-Symposium on the Mathematical Theory of Automata, 12, 615-622. 622. Polytechnic Institute of Brooklyn.Polytechnic Institute of Brooklyn.

Widrow, B., Lehr, M.A., "30 years of Adaptive Neural Networks: Widrow, B., Lehr, M.A., "30 years of Adaptive Neural Networks: Peceptron, Madaline, and Backpropagation," Peceptron, Madaline, and Backpropagation," Proc. IEEEProc. IEEE, vol 78, , vol 78, no 9, pp. 1415-1442, (1990).no 9, pp. 1415-1442, (1990).

Page 25: Warren McCulloch Walter Pitts Por FRANCISCO MARÍN MIRA

Referencias (III)Referencias (III) Introducción a las redes neuronales artificialesIntroducción a las redes neuronales artificiales. Alfredo Catalina Gallego. . Alfredo Catalina Gallego.

(www.gui.uva.es/login/login/13/redesn.html)(www.gui.uva.es/login/login/13/redesn.html)

PUBLICACIONESPUBLICACIONES::

Warren McCulloch and Walter Pitts, Warren McCulloch and Walter Pitts, A Logical Calculus of Ideas Immanent A Logical Calculus of Ideas Immanent in Nervous Activityin Nervous Activity, 1943, Bulletin of Mathematical Biophysics 5:115-133., 1943, Bulletin of Mathematical Biophysics 5:115-133.

Warren McCulloch and Walter Pitts, Warren McCulloch and Walter Pitts, On how we know universals: The On how we know universals: The perception of auditory and visual formsperception of auditory and visual forms, 1947, Bulletin of Mathematical , 1947, Bulletin of Mathematical Biophysics 9:127-147.Biophysics 9:127-147.

Howland, R., Jerome Lettvin, Warren McCulloch, Walter Pitts, and P. D. Howland, R., Jerome Lettvin, Warren McCulloch, Walter Pitts, and P. D. Wall, Wall, Reflex inhibition by dorsal root interactionReflex inhibition by dorsal root interaction, 1955, Journal of , 1955, Journal of Neurophysiology 18:1-17.Neurophysiology 18:1-17.

Wall, P. D., Warren McCulloch, Jerome Lettvin and Walter Pitts, Wall, P. D., Warren McCulloch, Jerome Lettvin and Walter Pitts, Effects of Effects of strychnine with special reference to spinal afferent fibresstrychnine with special reference to spinal afferent fibres, 1955, Epilepsia , 1955, Epilepsia Series 3, 4:29-40.Series 3, 4:29-40.

Jerome Lettvin, Humberto Maturana, Warren McCulloch, and Walter Pitts, Jerome Lettvin, Humberto Maturana, Warren McCulloch, and Walter Pitts, What the Frog's Eye Tells the Frog's BrainWhat the Frog's Eye Tells the Frog's Brain, 1959, Proceedings of the , 1959, Proceedings of the Institute of Radic Engineers 47: 1940-1959Institute of Radic Engineers 47: 1940-1959

Humberto Maturana, Jerome Lettvin, Warren McCulloch, and Walter Pitts, Humberto Maturana, Jerome Lettvin, Warren McCulloch, and Walter Pitts, Anatomy and physiology of vision in the frogAnatomy and physiology of vision in the frog, 1960, Journal of General , 1960, Journal of General Physiology, 43:129--175Physiology, 43:129--175

Robert Gesteland, Jerome Lettvin and Walter Pitts, Robert Gesteland, Jerome Lettvin and Walter Pitts, Chemical Transmission Chemical Transmission in the Nose of the Frogin the Nose of the Frog, 1965, J.Physiol. 181, 525-529., 1965, J.Physiol. 181, 525-529.