Edge TPU est uniquement compatible avec les modèles TensorFlow Lite. Par conséquent, vous devez entraîner le modèle TensorFlow, le convertir en TensorFlow Lite et le compiler pour Edge TPU. Vous pouvez ensuite exécuter le modèle sur l'Edge TPU à l'aide de l'une des options décrites sur cette page. (Voir Modèles Edge TPU TensorFlow pour plus d'informations sur la création de modèles compatibles avec Edge TPU. Https://coral.ai/docs/edgetpu/models-intro/)
Si vous utilisez Python pour effectuer des inférences, vous avez deux options.
Il s'agit de l'approche traditionnelle pour exécuter le modèle TensorFlow Lite. Le contrôle total de l'entrée et de la sortie des données vous permet d'effectuer des inférences dans une variété d'architectures de modèles. Si vous avez déjà utilisé TensorFlow Lite, votre code d'interpréteur peut exécuter votre modèle sur un TPU périphérique avec très peu de modifications. (Pour plus d'informations, consultez Effectuer des inférences à l'aide de TensorFlow Lite en Python. Https://coral.ai/docs/edgetpu/tflite-python/)
Il s'agit d'une bibliothèque Python construite au-dessus de l'API C ++ TensorFlow Lite
, vous pouvez donc utiliser le modèle de classification d'image et le modèle de détection d'objets pour faire des inférences plus facilement.
Cette API est utile si vous n'avez aucune expérience de l'API TensorFlow Lite et que vous souhaitez simplement effectuer une classification d'image ou une détection d'objet. Il s'agit d'abstraire le code nécessaire pour préparer le tenseur d'entrée et analyser les résultats. Il fournit également une API unique pour effectuer un apprentissage par transfert rapide des modèles de classification sur le TPU Edge. (Pour plus d'informations, consultez Présentation de l'API Edge TPU Python. Https://coral.ai/docs/edgetpu/api-intro/)
Si vous voulez écrire du code en C ++, vous devez utiliser l'API C ++ TensorFlow Lite
, tout comme vous exécuteriez TensorFlow Lite sur d'autres plates-formes. Cependant, vous devez apporter quelques modifications à votre code en utilisant l'API dans le fichier ʻedgetpu.h ou ʻedgetpu_c.h
. Fondamentalement, tout ce que vous avez à faire est d'enregistrer le périphérique Edge TPU en tant que contexte externe de l'objet ʻInterpreter`. (Pour plus d'informations, consultez Exécution d'inférences avec TensorFlow Lite en C ++. Https://coral.ai/docs/edgetpu/tflite-cpp/)
Le module Coral Accelerator sera disponible sur le site Web de Coral début 2020. Si vous êtes intéressé par les détails des produits Google Coral et des ventes de masse ou des ventes de masse (remise sur volume), bienvenue à l'agence Coral à l'étranger Gravitylink: https://store.gravitylink.com/global