Ing. Rafael C. cuestion.
Ing. un saludo ante todo. Estoy investigando el manejo del Aprendizaje Backpropagation para un MLP (multilayer Perceptron) y tengo la siguiente interrogante...
Pongo el siguiente ejemplo: trabajo una red de 2:3:2 ahora
- se supone que tenemos 2 salidas, ahora si el algoritmo(back...) encuentra en la 1era salida error, modificará hacia atras ( las otras capas) todos los pesos:
-ahora para evaluar la segunda salida que hago?
1. evaluamos hacia atras con los nuevos pesos modificados en la 1era salida?
2. evaluamos hacia atras con los pesos originales?
3. al encontrar modificacion en la 1era salida suspendemos la solucion a las demas salidas y procedemos a evaluar de nuevo la operacion con los nuevos pesos obtenidos en la 1ra salida?
Aclaro con esto que: sabemos que con los pesos originales nos dan 2 salidas, ahora mi duda es que si la 1era salida sale con error, y la segunda salida no tiene error(ojo! con los pesos originales) si evaluamos la segunda salida con los pesos modificados estos pueden perjudicar la salida correcta( 2da salida) que hago??? gracias.
Atte. Max Jara
max_ale8@universia.edu.pe