Session

BackProp? Anche No

Chi l’ha detto che per addestrare una rete neurale serva per forza la backpropagation?
In questo lightning talk scopriremo come un algoritmo metaeuristico può imparare a fare il lavoro del classico gradiente, trovando i pesi di una rete neurale senza mai calcolare una derivata.
Un approccio alternativo, curioso a cavallo tra evoluzione, ottimizzazione e un pizzico di ribellione contro il dogma del backprop.

Luca Di Vita

Machine Learning Engineer @ Cy4Gate | Member @ GDG Pescara | Co-Founder @ Python Pescara

Pescara, Italy

Actions

Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.

Jump to top