Cela dépend de la façon dont vous définissez l'intelligence artificielle (IA), mais selon "Ce que l'IA peut et ne peut pas faire" [^ 1]
"Technologie qui permet aux ordinateurs d'effectuer un travail intelligent"
Il paraît que. Les ordinateurs ne peuvent agir en tant qu'ordinateurs que par eux-mêmes, mais le travail intellectuel ne peut être effectué uniquement par des calculs. Aujourd'hui, seule une IA faible (intelligence artificielle qui est bonne pour une tâche spécifique) est fabriquée, et le centre de recherche est également une IA faible. Cependant, comme on le voit dans AlphaGo et Todai Robo, une IA qui dépasse les capacités humaines commence à apparaître, et bien qu'elle soit incomplète, elle attire les gens. De plus, l'IA émerge dans la publicité et les activités politiques, et il devient impossible de l'éviter même dans la vie quotidienne, comme l'affichage de fausses vidéos et de publicités personnalisées. Si une IA forte est achevée, lorsque l'ordinateur peut parler, exprimer et faire diverses choses par lui-même, il ne surmontera plus la singularité et le jeu "Detroit: Become Human" Et dans le film "I, Robot", il peut devenir une réalité que l'IA ignore les intentions humaines ou s'enfuit et attaque les humains (bien que ce soit extrême). On dit aussi que c'est un problème pour 2045. À l'heure actuelle, l'IA n'est qu'un algorithme, donc en ce sens, je pense qu'il est peu probable qu'elle dépasse la singularité.
L'histoire est déviée, mais il existe quatre principaux types d'intelligence artificielle.
Les trois ci-dessus sont collectivement appelés machine learning. Pour faire simple, l'apprentissage automatique est un algorithme qui apprend automatiquement le branchement conditionnel. Le modèle de prédiction n'est pas créé par des humains, mais est généré automatiquement. Pourtant, les valeurs de certains paramètres doivent être déterminées par l'homme. Ces paramètres sont appelés hyperparameters. En outre, en tant que sous-ensemble de l'apprentissage automatique, il existe __deep learning __.
Bien qu'elle soit généralement considérée comme «AI = deep learning», l'IA ne se limite pas à l'apprentissage en profondeur. La raison de son attention est que l'apprentissage profond imite les neurones des cellules nerveuses et est plus proche de la structure du cerveau humain. Cependant, lors de la reconnaissance d'objets et de personnages, il existe une grande différence entre la reconnaissance humaine et la reconnaissance informatique. En ce sens, il serait impossible de composer le cerveau humain.
À propos, AlphaGo utilise _Deep Strengthening Learning, qui est une combinaison d'apprentissage profond et d'apprentissage de renforcement.
Maintenant, jetons un coup d'œil rapide à quelques techniques pour chacun de l'apprentissage automatique.
L'apprentissage supervisé est une technologie qui apprend un modèle basé sur les données de l'enseignant (données d'entrée + étiquette de réponse correcte) et prédit et classe les données inconnues. Par exemple, l'image est que l'enseignant enseigne aux élèves comment résoudre l'exemple, puis l'élève qui apprend la solution résout les exercices. Le but est d'augmenter le taux de précision de l'élève. Cependant, si vous enseignez trop, vous développerez d'étranges habitudes et ne penserez pas par vous-même, et par conséquent vous ne pourrez pas résoudre même les problèmes simples que vous avez résolus auparavant. Cet état est appelé overfitting. Le surentraînement est, pour ainsi dire, une condition trop adaptée aux données d'entraînement. En d'autres termes, l'image est que les élèves ne peuvent résoudre que comme enseigné, et ils ne peuvent pas le résoudre immédiatement en modifiant le libellé et les valeurs numériques des phrases du problème. Par conséquent, il est nécessaire de créer un modèle qui minimise l'erreur tout en ajustant les paramètres afin de ne pas provoquer de surentraînement. Il existe deux types d'apprentissage supervisé: les problèmes de régression et de classification. Regardons d'abord la régression.
(En suivant le schéma de l'apprentissage supervisé ...)
[^ 1]: Koji Fujimoto et Kazutomo Shibahara "Ce que l'IA peut et ne peut pas faire" Critiques du Japon, 2019