Artwork

Το περιεχόμενο παρέχεται από το Brian Carter. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Brian Carter ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.
Player FM - Εφαρμογή podcast
Πηγαίνετε εκτός σύνδεσης με την εφαρμογή Player FM !

Forward and Backpropagation

6:25
 
Μοίρασέ το
 

Manage episode 444738225 series 3605861
Το περιεχόμενο παρέχεται από το Brian Carter. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Brian Carter ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

Let's get into the core processes of forward propagation and backpropagation in neural networks, which form the foundation of training these models. Forward propagation involves calculating the outputs of a neural network, starting with the input layer and moving towards the output layer. Backpropagation then calculates the gradients of the network's parameters, essential for updating these parameters during optimization. The text illustrates these concepts through the use of computational graphs, which visually represent the flow of information and calculations within the network. The text emphasizes the importance of automatic differentiation, which allows for efficient calculation of gradients without manual derivation. Finally, the text highlights the interdependence of forward and backward propagation during training, leading to significantly higher memory requirements compared to prediction.

Read more: https://d2l.ai/chapter_multilayer-perceptrons/backprop.html

  continue reading

37 επεισόδια

Artwork
iconΜοίρασέ το
 
Manage episode 444738225 series 3605861
Το περιεχόμενο παρέχεται από το Brian Carter. Όλο το περιεχόμενο podcast, συμπεριλαμβανομένων των επεισοδίων, των γραφικών και των περιγραφών podcast, μεταφορτώνεται και παρέχεται απευθείας από τον Brian Carter ή τον συνεργάτη της πλατφόρμας podcast. Εάν πιστεύετε ότι κάποιος χρησιμοποιεί το έργο σας που προστατεύεται από πνευματικά δικαιώματα χωρίς την άδειά σας, μπορείτε να ακολουθήσετε τη διαδικασία που περιγράφεται εδώ https://el.player.fm/legal.

Let's get into the core processes of forward propagation and backpropagation in neural networks, which form the foundation of training these models. Forward propagation involves calculating the outputs of a neural network, starting with the input layer and moving towards the output layer. Backpropagation then calculates the gradients of the network's parameters, essential for updating these parameters during optimization. The text illustrates these concepts through the use of computational graphs, which visually represent the flow of information and calculations within the network. The text emphasizes the importance of automatic differentiation, which allows for efficient calculation of gradients without manual derivation. Finally, the text highlights the interdependence of forward and backward propagation during training, leading to significantly higher memory requirements compared to prediction.

Read more: https://d2l.ai/chapter_multilayer-perceptrons/backprop.html

  continue reading

37 επεισόδια

Όλα τα επεισόδια

×
 
Loading …

Καλώς ήλθατε στο Player FM!

Το FM Player σαρώνει τον ιστό για podcasts υψηλής ποιότητας για να απολαύσετε αυτή τη στιγμή. Είναι η καλύτερη εφαρμογή podcast και λειτουργεί σε Android, iPhone και στον ιστό. Εγγραφή για συγχρονισμό συνδρομών σε όλες τις συσκευές.

 

Οδηγός γρήγορης αναφοράς