martes, 23 de junio de 2015

Perceptrón Multicapa

INTRODUCCIÓN


Este tipo de red artificial nació de la unión de varios perceptrones simples, estas redes neuronales multicapa se pueden clasificar de manera que que se conectan sus capas, este tipo de neuronas dio paso a la resolución de problemas mas complejos como los no lineales. Esta idea fue propuesta por los cientificos Rumelhart, Hinton y Williams en el año 1986 cuya hipotesis era la de retro propagar los errores medidos en las señales de salida de la red neuronal artificial hacia las neuronas que se encuentran en la capa oculta.

OBJETIVO


El objetivo de esta publicación es la de conocer como funcionan estas redes neuronales multicapa  y como hacen paras resolver problemas mas complejos basandose en los principios propuestos por Frank Rosenblatt en su modelo de perceptrón simple.

MARCO TEÓRICO


Las redes multicapa como ya hemos mencionado anteriormente son un modelo de redes neuronales artificial compuestos por varios perceptrones simples, estas redes neuronales multicapa están compuestas por tres capas que son:





  • Capa de entrada: Esta capa esta formada por las neuronas encargadas de transmitir los patrones de entrada en la red neuronal.
  • Capa oculta: En esta capa pueden existar mas de una sola, esta formada por aquellas neuronas cuyas capas de entrada provienen de las capas anteriores y cuyas salidas pasan a las neuronas de las capas posteriores.
  • Capa de salida: Esta capa esta formada por las neuronas encargadas de emitir los valores de salida que corresponden a todas las salidas de la red neuronal.




Usualmente las capas de este tipo de redes neuronales se encuentran ordenadas de la manera en que reciben las señales de entrada hasta las señales de salida y se encuentran unidas en ese orden. A este tipo de conexiones se les denomina como conexiones hacia adelante aunque también existen redes con conexiones hacia atrás.

Redes neuronales conexiones hacia adelante

Como hemos mencionada este tipo de redes contienen conexiones entre sus capas hacia adelante, esto quiere decir que una capa no puede recibir ninguna señal antes que ella, en la dinámica de la computación. 
Como ejemplos de este tipo de redes neuronales tenemos a los perceptrones, las redes Adaline, los algoritmos de retro-programación y los modelos de redes Kohonen.

Redes neuronales conexiones hacia atras


A este tipo de redes neuronales artificiales se las diferencia de las de conexiones hacia adelante porque en este tipo de redes si pueden existir conexiones entre capas hacia atras, esto quiere decir que la informacion pueden retornar entre las capas anteriores dentro de la dinamica de la red.
Como ejemplos de este tipo de redes neuronales tenemos a las redes BAM y ART.

CONCLUSIONES


Los perceptrones multicapa han demostrado ser de gran ayuda en el avance de las redes neuronales artificiales ya que estos a diferencia de los perceptrones simples pueden resolver problemas mas complejos, formados por diversas capas que le permiten el proceso de entrada, almacenamiento, procesamiento y análisis de la información que hacen de estas redes uno de los avances mas grandes de la inteligencia artificial.

BIBLIOGRAFÍA

Isasi, P. y Galván, I. 2004. Redes Neuronales Artificiales: Un enfoque Práctico. Madrid, Esp. pág. 45.

No hay comentarios.:

Publicar un comentario