2016-01-10 2 views
5

Sto provando a scrivere un'implementazione Java/Scala pura della classe Tensorflow RecordWriter per convertire Spark DataFrame nel file TFRecords. Secondo la documentazione, in TFRecords, ogni record è formattato come segue:Codice Java/Scala puro per scrivere il file di dati TFRecords Tensorflow

uint64 length 
uint32 masked_crc32_of_length 
byte data[length] 
uint32 masked_crc32_of_data 

E il CRC maschera

masked_crc = ((crc >> 15) | (crc << 17)) + 0xa282ead8ul 

Attualmente, calcola la CRC con l'attuazione guava con il seguente codice:

import com.google.common.hash.Hashing 

object CRC32 { 
    val kMaskDelta = 0xa282ead8 

    def hash(in: Array[Byte]): Int = { 
    val hashing = Hashing.crc32c() 
    hashing.hashBytes(in).asInt() 
    } 

    def mask(crc: Int): Int ={ 
    ((crc >> 15) | (crc << 17)) + kMaskDelta 
    } 
} 

Il resto del mio codice è: parte la codifica

i dati vengono don e con il seguente pezzo di codice:

object LittleEndianEncoding { 
    def encodeLong(in: Long): Array[Byte] = { 
    val baos = new ByteArrayOutputStream() 
    val out = new LittleEndianDataOutputStream(baos) 
    out.writeLong(in) 
    baos.toByteArray 
    } 

    def encodeInt(in: Int): Array[Byte] = { 
    val baos = new ByteArrayOutputStream() 
    val out = new LittleEndianDataOutputStream(baos) 

    out.writeInt(in) 
    baos.toByteArray 
    } 
} 

Il record sono generati con il tampone di protocollo:

import com.google.protobuf.ByteString 
import org.tensorflow.example._ 

import collection.JavaConversions._ 
import collection.mutable._ 

object TFRecord { 

    def int64Feature(in: Long): Feature = { 

    val valueBuilder = Int64List.newBuilder() 
    valueBuilder.addValue(in) 

    Feature.newBuilder() 
     .setInt64List(valueBuilder.build()) 
     .build() 
    } 


    def floatFeature(in: Float): Feature = { 
    val valueBuilder = FloatList.newBuilder() 
    valueBuilder.addValue(in) 
    Feature.newBuilder() 
     .setFloatList(valueBuilder.build()) 
     .build() 
    } 

    def floatVectorFeature(in: Array[Float]): Feature = { 
    val valueBuilder = FloatList.newBuilder() 
    in.foreach(valueBuilder.addValue) 

    Feature.newBuilder() 
     .setFloatList(valueBuilder.build()) 
     .build() 
    } 

    def bytesFeature(in: Array[Byte]): Feature = { 
    val valueBuilder = BytesList.newBuilder() 
    valueBuilder.addValue(ByteString.copyFrom(in)) 
    Feature.newBuilder() 
     .setBytesList(valueBuilder.build()) 
     .build() 
    } 

    def makeFeatures(features: HashMap[String, Feature]): Features = { 
    Features.newBuilder().putAllFeature(features).build() 
    } 


    def makeExample(features: Features): Example = { 
    Example.newBuilder().setFeatures(features).build() 
    } 

} 

Ed ecco un esempio di come io uso le cose insieme per generare il mio file TFRecords:

val label = TFRecord.int64Feature(1) 
val feature = TFRecord.floatVectorFeature(Array[Float](1, 2, 3, 4)) 
val features = TFRecord.makeFeatures(HashMap[String, Feature] ("feature"->feature, "label"-> label)) 
val ex = TFRecord.makeExample(features) 
val exSerialized = ex.toByteArray() 
val length = LittleEndianEncoding.encodeLong(exSerialized.length) 
val crcLength = LittleEndianEncoding.encodeInt(CRC32.mask(CRC32.hash(length))) 
val crcEx = LittleEndianEncoding.encodeInt(CRC32.mask(CRC32.hash(exSerialized))) 

val out = new FileOutputStream(new File("test.tfrecords")) 
out.write(length) 
out.write(crcLength) 
out.write(exSerialized) 
out.write(crcEx) 
out.close() 

Quando provo a leggere il file ho ottenuto all'interno tensorflow con TFRecordReader, ottengo il seguente errore:

Ho il sospetto che il calcolo della maschera CRC non sia corretto o l'endianness tra file java e C++ generato non siano gli stessi.

+0

Dove si trova il messaggio di errore? –

+0

Quando ho letto il file in tensorflow ottengo un errore di dati danneggiati. – jrabary

+0

La funzione maschera non è corretta rispetto al risultato ottenuto con 'masked_crc = ((crc >> 15) | (crc << 17)) + 0xa282ead8ul' – jrabary

risposta

6

Il problema con la mia implementazione è il calcolo della maschera CRC. Qui è fissare il ho trovato:

def mask(crc: Int): Int ={ 
    ((crc >>> 15) | (crc << 17)) + kMaskDelta 
} 

La chiave è l'uso dello spostamento senza segno bit a bit operatore >>> invece di >>