Sto tentando di applicare l'apprendimento approfondito per un problema di classificazione binaria con uno squilibrio di alta classe tra classi target (500k, 31K). Voglio scrivere una funzione di perdita personalizzata che dovrebbe essere come: minimizzare (100 - ((predicted_smallerclass)/(total_smallerclass)) * 100)Funzione di perdita per classificatore binario con sbilanciamento di classe nel flusso del tensore
Apprezzare qualsiasi suggerimento su come posso costruire questa logica.
Sono di fronte allo stesso problema, ma nel tentativo di comprendere il codice precedente non capisco '\ sum_' - puoi spiegarlo per favore? Sembra essere il codice del lattice; funziona in Python? –
Ma in realtà l'approccio migliore è quello di costruire mini-lotti bilanciati !! –
@Ron: l'equazione dice semplicemente che è diverso da: moltiplicare il logit per il peso della classe e moltiplicare la distanza (cross entropy) per i pesi. Il codice in basso funziona in Python. Ma nel complesso, riesci a bilanciare ogni Minibatch e otterrai un modello migliore! –