2016-01-30 29 views
5

Tentativo di creare un albero decisionale con convalida incrociata utilizzando sklearn e panads.convalida incrociata + alberi decisionali in sklearn

La mia domanda è nel codice qui sotto, la convalida incrociata divide i dati, che poi uso sia per allenamento che per test. Cercherò di trovare la migliore profondità dell'albero ricreando n volte con diverse profondità massime impostate. Nell'usare la convalida incrociata dovrei invece usare k folds k e, in tal caso, come utilizzarlo nel codice che ho?

import numpy as np 
import pandas as pd 
from sklearn import tree 
from sklearn import cross_validation 

features = ["fLength", "fWidth", "fSize", "fConc", "fConc1", "fAsym", "fM3Long", "fM3Trans", "fAlpha", "fDist", "class"] 

df = pd.read_csv('magic04.data',header=None,names=features) 

df['class'] = df['class'].map({'g':0,'h':1}) 

x = df[features[:-1]] 
y = df['class'] 

x_train,x_test,y_train,y_test = cross_validation.train_test_split(x,y,test_size=0.4,random_state=0) 

depth = [] 
for i in range(3,20): 
    clf = tree.DecisionTreeClassifier(max_depth=i) 
    clf = clf.fit(x_train,y_train) 
    depth.append((i,clf.score(x_test,y_test))) 
print depth 

questo è un collegamento ai dati che sto usando nel caso in cui questo aiuti chiunque. https://archive.ics.uci.edu/ml/datasets/MAGIC+Gamma+Telescope

risposta

14

Nel codice si crea una suddivisione statica di test di allenamento. Se si desidera selezionare la profondità migliore mediante convalida incrociata, è possibile utilizzare sklearn.cross_validation.cross_val_score all'interno del ciclo for.

È possibile leggere sklearn's documentation per ulteriori informazioni.

Ecco un aggiornamento del codice con CV:

import numpy as np 
import pandas as pd 
from sklearn import tree 
from sklearn.cross_validation import cross_val_score 
from pprint import pprint 

features = ["fLength", "fWidth", "fSize", "fConc", "fConc1", "fAsym", "fM3Long", "fM3Trans", "fAlpha", "fDist", "class"] 

df = pd.read_csv('magic04.data',header=None,names=features) 
df['class'] = df['class'].map({'g':0,'h':1}) 

x = df[features[:-1]] 
y = df['class'] 

# x_train,x_test,y_train,y_test = cross_validation.train_test_split(x,y,test_size=0.4,random_state=0) 
depth = [] 
for i in range(3,20): 
    clf = tree.DecisionTreeClassifier(max_depth=i) 
    # Perform 7-fold cross validation 
    scores = cross_val_score(estimator=clf, X=x, y=y, cv=7, n_jobs=4) 
    depth.append((i,scores.mean())) 
print(depth) 

In alternativa, è possibile utilizzare sklearn.grid_search.GridSearchCV e non scrivere il ciclo for te stesso, soprattutto se si desidera ottimizzare per più di un iper-parametri.

import numpy as np 
import pandas as pd 
from sklearn import tree 
from sklearn import grid_search 

features = ["fLength", "fWidth", "fSize", "fConc", "fConc1", "fAsym", "fM3Long", "fM3Trans", "fAlpha", "fDist", "class"] 

df = pd.read_csv('magic04.data',header=None,names=features) 
df['class'] = df['class'].map({'g':0,'h':1}) 

x = df[features[:-1]] 
y = df['class'] 


parameters = {'max_depth':range(3,20)} 
clf = grid_search.GridSearchCV(tree.DecisionTreeClassifier(), parameters, n_jobs=4) 
clf.fit(X=x, y=y) 
tree_model = clf.best_estimator_ 
print (clf.best_score_, clf.best_params_) 
+0

Questo era esattamente quello che stavo cercando; grazie – razeal113

+1

Buono a sapersi. Puoi accettare la risposta? – Dimosthenis

+2

+1 per rispondere alla domanda posta e anche suggerire la ricerca della griglia, che è sicuramente la pratica migliore per questo tipo di problema – dsal1951