Session
BackProp? Anche No
Chi l’ha detto che per addestrare una rete neurale serva per forza la backpropagation?
In questo lightning talk scopriremo come un algoritmo metaeuristico può imparare a fare il lavoro del classico gradiente, trovando i pesi di una rete neurale senza mai calcolare una derivata.
Un approccio alternativo, curioso a cavallo tra evoluzione, ottimizzazione e un pizzico di ribellione contro il dogma del backprop.
Luca Di Vita
Machine Learning Engineer @ Cy4Gate | Member @ GDG Pescara | Co-Founder @ Python Pescara
Pescara, Italy
Links
Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.
Jump to top