Sebbene questo sia un po 'troppo tardi per l'autore di questa domanda. Forse qualcuno vuole testare alcuni algoritmi di ottimizzazione, quando legge questo ...
Se si sta lavorando con regressioni in machine learning (NN, SVM, regressione lineare multipla, K Nearest Neighbor) e si desidera minimizzare (ingrandire) la tua funzione di regressione, in realtà ciò è possibile, ma l'efficienza di tali algoritmi dipende dalla scorrevolezza (dimensioni del passo ... ecc.) della regione in cui stai cercando.
Al fine di costruire tale "Machine Learning" Regressioni "è possibile utilizzare scikit- learn. Devi allenare e convalidare il tuo MLR Support Vector Regression. (metodo "fit")
SVR.fit(Sm_Data_X,Sm_Data_y)
poi si deve definire una funzione che restituisce una stima della regressione per un array "x".
def fun(x):
return SVR.predict(x)
È possibile utilizzare scipiy.optimize.minimize per l'ottimizzazione. Vedi gli esempi che seguono i doc-link.
Stavo osservando i confronti della scansione della matrice brute force, della ricottura simulata e della minimizzazione Migrad costruita separatamente da Minuit in root. – physicsmichael