Ho letto che i metodi di ensemble incorporati in sklearn usano gli alberi decisionali come classificatori di base. È possibile utilizzare invece classificatori personalizzati?Come utilizzare classificatori personalizzati in classificatori di ensemble in sklearn?
5
A
risposta
3
Se si intende le classi di foresta casuali, quindi no, non è attualmente possibile. L'opzione per consentire ad altri stimatori è stata discussa sulla mailing list di scikit-learn lo scorso gennaio, ma non credo che un vero codice sia uscito da quella discussione.
2
Non so se aiuta, ma si può facilmente impilare/combinare categorie di classificazione personalizzate utilizzando i programmi di utilità Pipeline: http://scikit-learn.org/stable/tutorial/statistical_inference/putting_together.html#pipelining
3
Se si utilizza sklearn.ensemble.AdaBoostClassifier
, allora la risposta è sì: scikit-learn.org/stable/modules/generated/sklearn.ensemble.AdaBoostClassifier.html È possibile assegnare base_estimator te stesso.
Le condotte non sono metodi di insieme. Combinano un solo classificatore con una serie di passaggi di pre-elaborazione. –
Sì, hai ragione. Ma quello che intendevo è che usare Pipelining e FeatureUnion possono essere usati insieme per combinare modelli omogenei o eterogenei in poche righe di codice. Ramp https://github.com/kvh/ramp utilizza questo principio molto per esempio. – user1151446