Desidero aggiornare il mio simulatore di evoluzione per utilizzare l'apprendimento Hebb, come this one. Fondamentalmente voglio che le piccole creature siano in grado di imparare come trovare cibo. L'ho raggiunto con le reti di feedforward di base, ma sono bloccato a capire come farlo con l'apprendimento di Hebb. Il principio base dell'apprendimento di Hebb è che, se due neuroni sparano insieme, si collegano.Come utilizzare l'apprendimento hebbiano?
Così, i pesi vengono aggiornati in questo modo:
weight_change = learning_rate * input * output
Le informazioni che ho trovato su come questo può essere utile è piuttosto scarsa, e io non lo ottengono.
Nella mia versione corrente del simulatore, i pesi tra un'azione e un input (movimento, occhi) aumentano quando una creatura mangia un pezzo di cibo, e non riesco a vedere come ciò possa tradursi in questo nuovo modello. Semplicemente non c'è spazio per capire se ha fatto qualcosa di giusto o sbagliato qui, perché gli unici parametri sono input e output! Fondamentalmente, se un input attiva il movimento in una direzione, il peso continuerà ad aumentare, non importa se la creatura sta mangiando qualcosa o no!
Sto applicando l'apprendimento di Hebb in modo errato? Solo per riferimento, sto usando Python.
voglio le reti non siano feedforward, il cervello non funziona così, e credo che i cicli potrebbero raffreddare. Quindi, nessun feedback, tu dici ... Quindi, in sostanza, potresti elaborare esattamente come funzionerebbe? Poiché sembra ancora rotto, associerà l'input A all'uscita B, solo perché i pesi iniziali sono stati impostati in quel modo, e quindi aumenterà la connessione tra l'infinito, sembra. – corazza