2016-03-23 22 views
8

Sto provando ad aggiungere la derivazione alla mia pipeline in NLP con sklearn.aggiungere il supporto di stemming a CountVectorizer (sklearn)

from nltk.stem.snowball import FrenchStemmer 

stop = stopwords.words('french') 
stemmer = FrenchStemmer() 


class StemmedCountVectorizer(CountVectorizer): 
    def __init__(self, stemmer): 
     super(StemmedCountVectorizer, self).__init__() 
     self.stemmer = stemmer 

    def build_analyzer(self): 
     analyzer = super(StemmedCountVectorizer, self).build_analyzer() 
     return lambda doc:(self.stemmer.stem(w) for w in analyzer(doc)) 

stem_vectorizer = StemmedCountVectorizer(stemmer) 
text_clf = Pipeline([('vect', stem_vectorizer), ('tfidf', TfidfTransformer()), ('clf', SVC(kernel='linear', C=1)) ]) 

Quando si utilizza questa pipeline con CountVectorizer di sklearn funziona. E se creo manualmente le funzionalità come questa funziona anche.

vectorizer = StemmedCountVectorizer(stemmer) 
vectorizer.fit_transform(X) 
tfidf_transformer = TfidfTransformer() 
X_tfidf = tfidf_transformer.fit_transform(X_counts) 

EDIT:

Se provo questo gasdotto sul mio notebook IPython visualizza il [*] e nulla accade. Quando guardo mio terminale, dà questo errore:

Process PoolWorker-12: 
Traceback (most recent call last): 
    File "C:\Anaconda2\lib\multiprocessing\process.py", line 258, in _bootstrap 
    self.run() 
    File "C:\Anaconda2\lib\multiprocessing\process.py", line 114, in run 
    self._target(*self._args, **self._kwargs) 
    File "C:\Anaconda2\lib\multiprocessing\pool.py", line 102, in worker 
    task = get() 
    File "C:\Anaconda2\lib\site-packages\sklearn\externals\joblib\pool.py", line 360, in get 
    return recv() 
AttributeError: 'module' object has no attribute 'StemmedCountVectorizer' 

Esempio

Ecco l'esempio completo

from sklearn.pipeline import Pipeline 
from sklearn import grid_search 
from sklearn.svm import SVC 
from sklearn.feature_extraction.text import CountVectorizer, TfidfTransformer 
from nltk.stem.snowball import FrenchStemmer 

stemmer = FrenchStemmer() 
analyzer = CountVectorizer().build_analyzer() 

def stemming(doc): 
    return (stemmer.stem(w) for w in analyzer(doc)) 

X = ['le chat est beau', 'le ciel est nuageux', 'les gens sont gentils', 'Paris est magique', 'Marseille est tragique', 'JCVD est fou'] 
Y = [1,0,1,1,0,0] 

text_clf = Pipeline([('vect', CountVectorizer()), ('tfidf', TfidfTransformer()), ('clf', SVC())]) 
parameters = { 'vect__analyzer': ['word', stemming]} 

gs_clf = grid_search.GridSearchCV(text_clf, parameters, n_jobs=-1) 
gs_clf.fit(X, Y) 

Se si rimuove derivanti dai parametri funziona altrimenti non funziona

UPDATE:

Il problema sembra essere nel processo parallelizzazione perché quando la rimozione n_jobs = -1 il problema scompare.

+0

questo sembra essere un problema con decapaggio e sfaldamento. se metti 'stemming' in un modulo importato, per esempio, sarà annullato in modo più affidabile. – joeln

+0

Potresti fornire un esempio o un link per capire cosa hai detto? Come mettere 'stemming' in un modulo importato? Perché senza la parallelizzazione, GridSearch è piuttosto lento con pochi parametri da sintonizzare. – dooms

+0

Per quello che vale, posso eseguire l'esempio completo senza problemi. Ma quello che intendevo è spostare il codice per 'stemming' in 'myutils.py' per esempio, e usare' from myutils import stemming'. – joeln

risposta

1

Si può provare:

def build_analyzer(self): 
    analyzer = super(CountVectorizer, self).build_analyzer() 
    return lambda doc:(stemmer.stem(w) for w in analyzer(doc)) 

e rimuovere il metodo __init__.

+0

Non funziona (dare lo stesso errore) e ho bisogno dell'attributo stemmer. – dooms

+0

Potrebbe fornire ulteriori informazioni sull'errore stampato? Quale linea si rompe per esempio? – Till

+0

Sto usando un GridSearch con n_jobs = -1 per parallelizzare il lavoro. – dooms

14

È possibile passare un callable come analyzer al costruttore CountVectorizer per fornire un analizzatore personalizzato. Questo sembra funzionare per me.

from sklearn.feature_extraction.text import CountVectorizer 
from nltk.stem.snowball import FrenchStemmer 

stemmer = FrenchStemmer() 
analyzer = CountVectorizer().build_analyzer() 

def stemmed_words(doc): 
    return (stemmer.stem(w) for w in analyzer(doc)) 

stem_vectorizer = CountVectorizer(analyzer=stemmed_words) 
print(stem_vectorizer.fit_transform(['Tu marches dans la rue'])) 
print(stem_vectorizer.get_feature_names()) 

Stampe fuori:

(0, 4) 1 
    (0, 2) 1 
    (0, 0) 1 
    (0, 1) 1 
    (0, 3) 1 
[u'dan', u'la', u'march', u'ru', u'tu'] 
+0

parametri = {'vect__analyzer': ['word', stemming]} L'utilizzo di questo come parametri per gridsearch dà l'errore: AttributeError: l'oggetto 'module' non ha attributo 'stemming' – dooms

6

So po 'in ritardo nella pubblicazione mia risposta. Ma eccolo qui, nel caso qualcuno abbia ancora bisogno di aiuto.

In seguito è l'approccio più pulito per aggiungere la lingua stemmer contare vectorizer ridefinendo build_analyser()

from sklearn.feature_extraction.text import CountVectorizer 
import nltk.stem 

french_stemmer = nltk.stem.SnowballStemmer('french') 
class StemmedCountVectorizer(CountVectorizer): 
    def build_analyzer(self): 
     analyzer = super(StemmedCountVectorizer, self).build_analyzer() 
     return lambda doc: ([french_stemmer.stem(w) for w in analyzer(doc)]) 

vectorizer_s = StemmedCountVectorizer(min_df=3, analyzer="word", stop_words='french') 

Potete liberamente chiamare fit e transform funzioni di classe CountVectorizer sopra la vostra vectorizer_s oggetto