Was ist falsch an der Rückwärtsausbreitung?

Was ist falsch an der Rückwärtsausbreitung?
Was ist falsch an der Rückwärtsausbreitung?
Anonim

Kurz gesagt, Sie können keine Rückwärtsausbreitung durchführen, wenn Sie keine Zielfunktion haben. Sie können keine objektive Funktion haben, wenn Sie kein Maß zwischen einem vorhergesagten Wert und einem gekennzeichneten Wert (tatsächliche oder Trainingsdaten) haben. Um also „unüberwachtes Lernen“zu erreichen, müssen Sie möglicherweise auf die Fähigkeit verzichten, einen Gradienten zu berechnen.

Was sind die Beschränkungen der Rückwärtsausbreitung?

Nachteile des Back-Propagation-Algorithmus:

Es ist auf Eingaben angewiesen, um ein bestimmtes Problem zu lösen. Empfindlich gegenüber komplexen/verrauschten Daten. Es benötigt die Ableitungen der Aktivierungsfunktionen für die Netzwerkdesignzeit.

Wie behebt man die Rückwärtsausbreitung?

Backpropagation-Prozess im Deep Neural Network

  1. Werte eingeben. X1=0,05. …
  2. Anfangsgewicht. W1=0,15 w5=0,40. …
  3. Bias-Werte. b1=0,35 b2=0,60.
  4. Zielwerte. T1=0,01. …
  5. Weiterleiten. Um den Wert von H1 zu finden, multiplizieren wir zuerst den Eingabewert aus den Gewichten mit. …
  6. Rückwärtspass auf der Ausgabeebene. …
  7. Rückwärtspass auf verborgener Ebene.

Ist Backpropagation effizient?

Backpropagation ist effizient und macht es möglich, mehrschichtige Netzwerke zu trainieren, die viele Neuronen enth alten, während die Gewichtungen aktualisiert werden, um Verluste zu minimieren.

Welches Problem löst Backpropagation bei der Arbeit mit neuronalen Netzen?

Beim Anpassen eines neuronalen Netzes berechnet Backpropagation den Gradienten vondie Verlustfunktion in Bezug auf die Gewichte des Netzwerks für ein einzelnes Input-Output-Beispiel, und zwar effizient, im Gegensatz zu einer naiven direkten Berechnung des Gradienten in Bezug auf jedes einzelne Gewicht.