2016-05-22 31 views
5

Ho un set di dati di addestramento in forma di matrice di dimensioni 5000 x 3027 (set di dati CIFAR-10). Usando array_split in numpy, l'ho suddiviso in 5 parti diverse, e voglio selezionare solo una delle parti come la croce di convalida. Comunque il mio problema arriva quando uso qualcosa come XTrain [[Indexes]] dove index è un array come [0,1,2,3], perché fare questo mi dà un tensore 3D di dimensioni 4 x 1000 x 3027, e non una matrice. Come faccio a comprimere il "4 x 1000" in 4000 righe, per ottenere una matrice di 4000 x 3027?numpy: Come posso selezionare indici specifici in un array np per la convalida incrociata k-fold?

for fold in range(len(X_train_folds)): 
    indexes = np.delete(np.arange(len(X_train_folds)), fold) 
    XTrain = X_train_folds[indexes] 
    X_cv = X_train_folds[fold] 
    yTrain = y_train_folds[indexes] 
    y_cv = y_train_folds[fold] 

    classifier.train(XTrain, yTrain) 
    dists = classifier.compute_distances_no_loops(X_cv) 
    y_test_pred = classifier.predict_labels(dists, k) 

    num_correct = np.sum(y_test_pred == y_test) 
    accuracy = float(num_correct/num_test) 
    k_to_accuracy[k] = accuracy 
+0

Puoi condividere il codice hai problemi con? – dmlittle

+0

Aggiunto il codice, la forma di XTrain = X_train_folds [indici] è 4 x 1000 x 3027, ma spero di farlo diventare 4000 x 3027 – kwotsin

risposta

2

Suggerisco di utilizzare il pacchetto scikit-learn. E 'già dotato di un sacco di strumenti di apprendimento delle macchine comuni, come ad esempio K-fold cross-validation generator:

>>> from sklearn.cross_validation import KFold 
>>> X = # your data [samples x features] 
>>> y = # gt labels 
>>> kf = KFold(X.shape[0], n_folds=5) 

E poi, scorrere kf:

>>> for train_index, test_index in kf: 
     X_train, X_test = X[train_index], X[test_index] 
     y_train, y_test = y[train_index], y[test_index] 
     # do something 

Il ciclo precedente verrà eseguito n_folds volte, ogni volta con una formazione diversa e testare gli indici.

3

Forse si può provare questo invece (una novità per NumPy quindi se sto facendo qualcosa di inefficiente/sbagliato, sarebbe felice di essere corretto)

X_train_folds = np.array_split(X_train, num_folds) 
y_train_folds = np.array_split(y_train, num_folds) 
k_to_accuracies = {} 

for k in k_choices: 
    k_to_accuracies[k] = [] 
    for i in range(num_folds): 
     training_data, test_data = np.concatenate(X_train_folds[:i] + X_train_folds[i+1:]), X_train_folds[i] 
     training_labels, test_labels = np.concatenate(y_train_folds[:i] + y_train_folds[i+1:]), y_train_folds[i] 
     classifier.train(training_data, training_labels) 
     predicted_labels = classifier.predict(test_data, k) 
     k_to_accuracies[k].append(np.sum(predicted_labels == test_labels)/len(test_labels))