deep neural networks - uchile.cl

22
Deep Neural Networks Matías Silva Cares 17/11/2016

Upload: others

Post on 25-Jul-2022

11 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Deep Neural Networks - uchile.cl

Deep Neural NetworksMatías Silva Cares

17/11/2016

Page 2: Deep Neural Networks - uchile.cl

Overview

1. Redes neuronalesa. Motivaciónb. Orígenc. Estructurad. Aplicaciones

2. Redes neuronales profundasa. Conceptob. Redes neuronales convolucionalesc. Redes neuronales recurrentes

Page 3: Deep Neural Networks - uchile.cl

NN: Motivación

Page 4: Deep Neural Networks - uchile.cl

NN: Orígen

• 1943 (McCulloch & Pitts): Inspiración biológica para generar modelo matemático.

• 1951 (Minsky & Edmons): Primera implementación en hardware

Page 5: Deep Neural Networks - uchile.cl

NN: Orígen

• 1958 (Rosenblatt): Concepto de perceptrón

Page 6: Deep Neural Networks - uchile.cl

NN: Orígen

• 1980-90 : Aplicación de BackPropagation, aparición de redes convolucionales y recurrentes.

• 1993 (Yann LeCun): CNN aplicado a imágenes

Page 7: Deep Neural Networks - uchile.cl

NN: Orígen

• 2006 : Aparición del DeepLearning, entrenamiento de una red con muchas capas.

• 2012 (Kriztevsky & Sutskever): Ganadores del ImageNet Classification bajando 10 puntos la tasa de error de clasificación usando CNN.

Page 8: Deep Neural Networks - uchile.cl

Estructura

• Perceptrón (Unidad)• Perceptrón Multicapa• Función de activación.• Backpropagation - Gradiente descendiente.• DataSet: Entrenamiento, Validación, Test.• Batches• Regularización

Page 9: Deep Neural Networks - uchile.cl

Simulación MLP

http://playground.tensorflow.org/

Page 10: Deep Neural Networks - uchile.cl

Aplicaciones NN

Clasificadores.

Detector de patrones.

Predicciones de mercado.

Compresión de imágenes.

Page 11: Deep Neural Networks - uchile.cl

Deep Neural NetworksMás capas...

Page 12: Deep Neural Networks - uchile.cl

Concepto: ¿Por qué más capas?

• Mayor dimensionalidad .• (Abarcar modelos más complejos).

• Computadores más veloces para procesar.• (Poder entrenar)

• Usar redes para elegir mejores features.• (Lo importante).

Page 13: Deep Neural Networks - uchile.cl

CNN

• Paradigma: Extracción de features simples a más complejos.• Nueva estructura para clasificar imágenes, aprovechando

espacialidad.• Obtuvo resultados notables en competencia de clasificación de

imágenes.• Se considera “Deep” dada su estructura con muchas capas (de

diferente procesamiento).• Aplicaciones orientadas a procesar imágenes o datos donde la

espacialidad sea algo importante.

Page 14: Deep Neural Networks - uchile.cl

CNN: Paradigma

Page 15: Deep Neural Networks - uchile.cl

CNN: Esquema

Page 16: Deep Neural Networks - uchile.cl

CNN: Parámetros

• Ventaja de escalabilidad.• Uso de arquitectura es heurística.• Parámetros:

• Filtros, padding.• Subsampling (Pooling).• Regularización.

• Estrategias:• Generalización (Dropout).• Transfer Learning (Clasificación con pocos datos).

Page 17: Deep Neural Networks - uchile.cl

CNN: Conclusiones

• Uso para datos con importancia espacial (Imágenes).• Definir arquitectura no es fácil y requiere práctica

(Prueba y error).• Requiere mucho procesamiento en el entrenamiento.• Aplicaciones:

• Clasificación de objetos en imágenes.• Filtros de fotografía (Deep-Art & Deep-Dream)

Page 18: Deep Neural Networks - uchile.cl

CNN: Deep-Art

Page 19: Deep Neural Networks - uchile.cl

CNN: Deep Dream

Page 20: Deep Neural Networks - uchile.cl

RNN

• Paradigma: Retroalimentar neuronas para considerar en la decisión el valor obtenido en el frame anterior.

• Se considera “Deep” dada su estructura con muchas capas (al “estirar” las recurrencias).

• Aplicaciones orientadas a procesar datos temporales.• Predicción de palabras y oraciones.

Page 21: Deep Neural Networks - uchile.cl

RNN

Page 22: Deep Neural Networks - uchile.cl

Deep Neural NetworksMatías Silva Cares

17/11/2016