OK, quindi mi sto preparando per eseguire la funzione tf.nn.softmax_cross_entropy_with_logits() in Tensorflow. È a mia conoscenza che i 'logits' dovrebbero essere un Tensore di probabilità, ognuno cor
Recentemente mi sono imbattuto in tf.nn.sparse_softmax_cross_entropy_with_logits e non riesco a capire quale sia la differenza rispetto a tf.nn.softmax_cross_entropy_with_logits. L'unica differenza ch
Sebbene entrambi i metodi sopra riportati forniscano un punteggio migliore per una migliore vicinanza della previsione, è preferibile ancora l'entropia incrociata. È in tutti i casi o ci sono alcuni s