Sono interessato all'inizializzazione dell'implementazione di tensorflow seq2seq con word2vec preliminare.inizializzazione Seq2seq incorporamento con word2vec preassegnato
Ho visto il codice. Sembra che l'integrazione sia inizializzata
with tf.variable_scope(scope or "embedding_attention_decoder"):
with tf.device("/cpu:0"):
embedding = tf.get_variable("embedding", [num_symbols, cell.input_size])
come si modifica questo in modo da inizializzare con parola2vec preliminare ??
l'indice: model.index2word? come lo passi a tensorflow? – vgoklani