J'ai essayé de toucher Google Cloud Vision à Kansai House Hack Try 2016 vol.1, donc un mémorandum.
L'environnement est de Mac, dans le terminal.
En gros, j'utilise la mise en route de Google. https://cloud.google.com/vision/docs/getting-started
Tout d'abord, activez Cloud Vision depuis GCP
Informations d'identification> Créer des informations d'identification> Clé de compte de service> JSON> Créer Suivez la procédure dans. Enregistrez le fichier JSON téléchargé ici.
Tout d'abord, définissez les variables d'environnement depuis le terminal. ʻExport GOOGLE_APPLICATION_CREDENTIALS = '/ xxx / xxx / {fichier JSON de la version précédente} .json'`
Puis clonez la source depuis github. https://github.com/GoogleCloudPlatform/cloud-vision
Passez du répertoire cloné à python> face_detection, Exécutez faces.py dedans. Spécifiez le fichier image que vous souhaitez analyser dans l'argument.
python faces.py face-input.jpg
C'est OK si out.jpg est sorti dans la même couche.
Voir ici pour des informations pouvant être obtenues → https://cloud.google.com/vision/reference/rest/v1/images/annotate#FaceAnnotation
Non seulement l'expression du visage, mais aussi la position de la bouche et les coordonnées du visage peuvent être obtenues sur l'axe xyz, et il semble que cela correspond à plusieurs visages, et comme cela ne touche que l'API, je veux essayer plus. Gratuit jusqu'à 1000 unités par mois. S'il ne s'agit que de reconnaissance faciale, elle peut être exécutée 1000 fois.
Recommended Posts