Notes AutoEncodder avec Keras

introduction

J'ai fait référence au blog suivant sur l'autoencodeur de Keras. http://blog.keras.io/building-autoencoders-in-keras.html Dans le blog, MNIST est utilisé comme données d'entrée.

Il existe de nombreux exemples d'extraction de caractéristiques à l'aide d'images telles que MNIST, mais dans cet article, nous traiterons de ** signaux autres que des images **.

Prétraitement

En tant que prétraitement, les données d'entrée de l'AutoEncoder sont utilisées ici comme données de mesure du capteur d'accélération avec des valeurs de -8 à +8. Ensuite, laissez la variable de données être windoW. Ensuite, laissez le nombre de nœuds dans la couche masquée être de huit.

def SaveDicDataFromFileNPZ(PATH,name,data):
    if not ( os.path.exists(PATH) ): os.makedirs(PATH)

    np.savez(PATH+name, data=data)

#Réglez PATH pour stocker chaque paramètre
SensorName='sensor1'

SaveFileNameEncord=SensorName+'_AccX_encoded'
SaveFileNameDecord=SensorName+'_AccX_decoded'
SaveFileNameNet=SensorName+'_AccX_net'
SaveFileNameTrain=SensorName+'_AccX_train'
SaveFileNameTest=SensorName+'_AccX_test'
SaveFileNameGlaph=GlaphDataPath+SensorName+'_AccX_loss_val_loss.png'

window_test=windoW
window_train=windoW

encoding_dim = 8  
shapeNum=windoW.shape[0]*windoW.shape[1]

# this is our input placeholder
input_img = Input(shape=(shapeNum,))
# "encoded" is the encoded representation of the input
encoded = Dense(encoding_dim, activation='tanh')(input_img)
# "decoded" is the lossy reconstruction of the input
decoded = Dense(shapeNum, activation='linear')(encoded)

# this model maps an input to its reconstruction
autoencoder = Model(input=input_img, output=decoded)

# this model maps an input to its encoded representation
encoder = Model(input=input_img, output=encoded)

# create a placeholder for an encoded (32-dimensional) input
encoded_input = Input(shape=(encoding_dim,))
# retrieve the last layer of the autoencoder model
decoder_layer = autoencoder.layers[-1]
# create the decoder model
decoder = Model(input=encoded_input, output=decoder_layer(encoded_input))

autoencoder.compile(optimizer='adadelta', loss='mse')
plot(autoencoder,  to_file=StudyDataModelPicPath+SaveFileNameNet+'.png')

hist = autoencoder.fit(window_train, window_train,
                nb_epoch=50,
                batch_size=shapeNum/4,
                shuffle=True,
                validation_data=(window_test, window_test))

#Enregistrer les objets encodés et décodés
encoded_imgs = encoder.predict(window_test)
decoded_imgs = decoder.predict(encoded_imgs)

processing.SaveDicDataFromFileNPZ(StudyDataPath,SaveFileNameEncord,encoded_imgs)
processing.SaveDicDataFromFileNPZ(StudyDataPath,SaveFileNameDecord,decoded_imgs)

#Enregistrer les paramètres tels que le poids et le biais pour chaque couche
json_string = encoder.to_json()
open(StudyDataPath+SaveFileNameEncord+'.json', 'w').write(json_string)
encoder.save_weights(StudyDataPath+SaveFileNameEncord+'_weights.h5')

json_string = decoder.to_json()
open(StudyDataPath+SaveFileNameDecord+'.json', 'w').write(json_string)
decoder.save_weights(StudyDataPath+SaveFileNameDecord+'_weights.h5')

json_string = autoencoder.to_json()
open(StudyDataPath+SaveFileNameNet+'.json', 'w').write(json_string)
autoencoder.save_weights(StudyDataPath+SaveFileNameNet+'_weights.h5')

#Afficher la perte sur le graphique
loss = hist.history['loss']
val_loss = hist.history['val_loss']

nb_epoch = len(loss)
plt.plot(range(nb_epoch), loss, marker='.', label='loss')
plt.plot(range(nb_epoch), val_loss, marker='.', label='val_loss')
plt.legend(loc='best', fontsize=10)
plt.grid()
plt.xlabel('epoch')
plt.ylabel('loss')
plt.savefig(SaveFileNameGlaph)
plt.show()

La sortie sera un graphique comme indiqué dans la figure ci-dessous.

image

Recommended Posts

Notes AutoEncodder avec Keras
Remarques sur avec
Reconnaissance d'image avec keras
Tutoriel CIFAR-10 avec Keras
LSTM multivarié avec Keras
Installation de Keras (utilisée par Anaconda)
Analyse de régression multiple avec Keras
Notes jouant avec des liens symboliques
Implémentation de word2vec avec Theano + Keras
Génération de phrases avec GRU (keras)
Réglage des paramètres Keras avec Keras Tuner
Créez facilement des CNN avec Keras
Implémentation d'un GAN efficace avec keras
Reconnaissance d'image avec Keras + OpenCV
[Note de lecture] Apprentissage automatique pratique avec Scikit-Learn, Keras et TensorFlow Chapitre 1
MNIST (DCNN) avec Keras (backend TensorFlow)
Remarques sur la gestion des packages avec conda
Prédire le Titanic de Kaggle avec Keras (Kaggle ⑦)
Cartes propres laplaciennes avec Scikit-learn (notes personnelles)
[TensorFlow] [Keras] Construction d'un réseau neuronal avec Keras
Implémenter Keras LSTM feed forward avec numpy
Comparez DCGAN et pix2pix avec Keras
Implémentation Score-CAM avec keras. Comparaison avec Grad-CAM
Prédiction de l'onde de péché avec keras
Notes sur l'utilisation de rstrip avec python.
Débutant RNN (LSTM) | Essayer avec Keras
Écrire Reversi AI avec Keras + DQN
4/22 prédiction de l'onde de péché avec keras