J'ai terminé le trimestre 1 du cours d'ingénieur en conduite automatique fourni par le cours en ligne Udacity, je voudrais donc écrire mes impressions.
Udacity est l'un des MOOC de cours en ligne tels que Coursera et edX, et il existe différents cours tels que le cours d'ingénieur de conduite automatique, le cours d'IA et le cours d'ingénieur full stack. La différence avec les autres MOOC est que Coursera et d'autres sont plutôt basés sur la connaissance, tandis qu'Udacity est basé sur des projets. En outre, des conférences sur les cours de conduite automatique sont également proposées par Mercedes-Benz, etc., et vous pouvez apprendre les dernières technologies.
Il s'agit d'un programme qu'Udacity a commencé vers novembre 2016, et c'est un cours qui vous permet d'acquérir les compétences nécessaires pour devenir ingénieur en conduite automatique en 9 mois. Il est divisé en 3 trimestres de la session 1 à la session 3, et chaque session est de 3 mois chacun.En 3 mois de session 1, vous apprendrez la vision par ordinateur et l'apprentissage en profondeur, et compléterez 5 projets. Le langage utilisé dans Term1 est Python, et à partir de Term2, C ++ est principalement utilisé. Depuis 2018, il semble qu'il n'y ait pas d'autre programme que ce cours qui vous permette d'étudier de manière exhaustive les techniques liées à la conduite automatique. Dans ce cours, vous pouvez étudier de la reconnaissance d'image à l'estimation de l'auto-position, au contrôle, à la planification d'itinéraire et à la conduite réelle du véhicule.
(Récemment confirmé, il semble qu'il s'agisse désormais d'un système à 2 termes au lieu d'un système à 3 termes. Les contenus supprimés sont le contrôle prédictif du modèle dans le champ de contrôle, la segmentation de la zone de la route par apprentissage en profondeur et le système d'assistant de voie. La sécurité fonctionnelle a été perdue.)
Je vais expliquer brièvement les grandes lignes des cinq projets. Plus de détails seront expliqués.
Ce projet est une introduction à la vision par ordinateur et reconnaît les voies à l'aide de la méthode de détection des bords de cany. Je n'avais jamais utilisé la vision par ordinateur, mais j'ai pu procéder de manière relativement fluide.
Principales bibliothèques utilisées: OpenCV
Il s'agit d'un projet d'identification des panneaux de signalisation à l'aide de TensorFlow. Ceci est une introduction au Deep Learning. Vous pouvez en apprendre davantage sur CNN (Convolutional Neural Network).
Principales bibliothèques utilisées: TensorFlow
3.Behavioral Cloning La tâche d'exécuter le cours sans laisser la voiture sur le simulateur en utilisant Deep Learning. Enregistrez l'image et l'angle de braquage lorsqu'une personne conduit une voiture sur le simulateur. Sur la base de l'entrée d'image enregistrée, il est appris en utilisant CNN (Convolutional Neural Network) pour générer l'angle de la poignée, et il est automatiquement utilisé sur le simulateur. Cliquez ici pour voir la vidéo (https://www.youtube.com/watch?v=HRvNs1jUHmI&feature=youtu.be).
Principales bibliothèques utilisées: Keras
Alors que le projet 1 était la méthode de base, il s'agit d'un contenu appliqué. Apprenez à reconnaître les voies indépendamment de la luminosité des courbes et des routes. La vidéo est ici
Principales bibliothèques utilisées: OpenCV
La tâche de détection de véhicule à l'aide de l'apprentissage automatique. Un apprenant qui reconnaît un véhicule à partir de caractéristiques telles que des histogrammes de dégradés orientés et un espace colorimétrique est généré, et l'apprenant est utilisé pour déterminer s'il y a ou non un véhicule dans l'image, et s'il y a un véhicule, le véhicule. Est suivi. La vidéo est ici
Principales bibliothèques utilisées: OpenCV, Scikit-Learn
Cette vidéo est une combinaison de 4 et 5.
Les cinq tâches ci-dessus sont incluses dans le terme 1, et le contenu va de la vision par ordinateur à l'apprentissage automatique et à l'apprentissage en profondeur. Il était assez difficile de terminer ces contenus en 3 mois, et j'y ai passé au moins 15 heures par semaine. En outre, chaque terme coûte 800 dollars, donc il en coûte 2400 dollars au total. Si cela vaut la peine de dépenser autant de temps et d'argent, je pense que cela en vaut la peine. Je n'ai guère traité de la reconnaissance d'image jusqu'à présent, mais en trois mois, j'ai pu effectuer la reconnaissance de véhicules et la détection de voie, et mes connaissances en apprentissage profond se sont approfondies. Et si vous pouvez travailler en tant qu'ingénieur en conduite automatisée, 2 400 $ en valent bien l'investissement.
Actuellement, je suis au milieu de Term2, et j'aimerais également écrire mes impressions à ce sujet.
Voici des conférences gratuites sur la conduite automatique.
Deep Learning for Self-Driving Cars Il s'agit d'une méthode utilisant l'apprentissage profond et l'apprentissage par renforcement profond dans les conférences du MIT, 5 fois au total. C'est une conférence sur les bases de l'apprentissage profond et de l'apprentissage automatique.
Introduction to Mobile Robotics - SS 2016 Conférence à l'Université de Fribourg en Allemagne. La conférence elle-même est en anglais et ne nécessite pas d'allemand, mais elle ne peut pas être sous-titrée. La plupart du contenu est lié aux informations des capteurs installés dans les véhicules autonomes. Par exemple, nous avons affaire au filtre de Kalman utilisé lors de l'intégration des informations du capteur (fusion du capteur). Il y a également une explication détaillée de SLAM (une méthode d'estimation simultanée de l'auto-position et de création d'une carte environnementale) et de la planification de trajectoire (planification d'itinéraire).
<a target = "_ blank" href = "https://www.amazon.co.jp/gp/product/4839952981/ref=as_li_tl?ie=UTF8&camp=247&creative=1211&creativeASIN=4839952981&linkCode=as2&tag=ryo62b419-22b394b519-22 > Probability Robotics (version Premium Books)
iLectureonline Ceci est une conférence sur le filtre de Kalman utilisé pour la fusion de capteurs. Personnellement, je pense que c'est le plus détaillé et le plus facile à comprendre dans la conférence sur le filtre de Kalman.
Recommended Posts