Ho il seguente codice che utilizza un classificatore NB per un problema di classificazione a più classi. La funzione preforma la convalida incrociata memorizzando le precisioni e stampando la media in un secondo momento. Quello che voglio invece è un rapporto di classificazione che specifichi precisione e richiamo di classe, invece di un punteggio medio di accuratezza alla fine.Ottenere un rapporto di classificazione che indichi la precisione e il richiamo della classe per Naive Bayes multinomiale utilizzando la convalida incrociata 10 volte
import random
from sklearn import cross_validation
from sklearn.naive_bayes import MultinomialNB
def multinomial_nb_with_cv(x_train, y_train):
random.shuffle(X)
kf = cross_validation.KFold(len(X), n_folds=10)
acc = []
for train_index, test_index in kf:
y_true = y_train[test_index]
clf = MultinomialNB().fit(x_train[train_index],
y_train[train_index])
y_pred = clf.predict(x_train[test_index])
acc.append(accuracy_score(y_true, y_pred))
Se non eseguire la convalida incrociata tutto quello che devo fare è:
from sklearn.metrics import classification_report
from sklearn.naive_bayes import MultinomialNB
def multinomial_nb(x_train, y_train, x_test, y_test):
clf = MultinomialNB().fit(x_train, y_train)
y_pred = clf.predict(x_test)
y_true = y_test
print classification_report(y_true, y_pred)
e mi dà una relazione come questa:
precision recall f1-score support
0 0.50 0.24 0.33 221
1 0.00 0.00 0.00 18
2 0.00 0.00 0.00 27
3 0.00 0.00 0.00 28
4 0.00 0.00 0.00 32
5 0.04 0.02 0.02 57
6 0.00 0.00 0.00 26
7 0.00 0.00 0.00 25
8 0.00 0.00 0.00 43
9 0.00 0.00 0.00 99
10 0.63 0.98 0.76 716
avg/total 0.44 0.59 0.48 1292
Come posso ottenere un simile riferire anche in caso di convalida incrociata?
Questo è fantastico. Quindi cross_val_predict internamente concatena solo y_true e y_pred per ogni piega ed emette quello alla fine. Mi ha colpito poco dopo, tutto quello che avrei potuto fare è lo stesso nel mio precedente codice. – CuriousCat
@CuriousCat Sì, quindi prima suddividiamo l'intero campione in 10 pieghe. Quindi eseguiamo la convalida incrociata utilizzando ogni piega come un campione di prova e le previsioni corrispondenti vengono memorizzate. Infine, 'cross_val_pred' concatena queste previsioni di non sovrapposizione e restituisce il risultato della stessa lunghezza del nostro campione completo di allenamento. –