AI Sciences
L'Intelligence Artificielle est un ensemble de différentes Sciences :
- Apprentissage automatique (ML)
- Réseaux de neurones (NN)
- Apprentissage en profondeur (DL)
- Big Data
Scientifiques de l'IA
Les scientifiques de l'IA construisent des logiciels avec des algorithmes capables d'effectuer des tâches qui nécessitent normalement l'intelligence humaine.
Les scientifiques de l'IA peuvent être des experts dans plusieurs disciplines de l'IA :
- Mathématiques appliquées
- Statistiques informatiques
- L'informatique
- Apprentissage automatique
- L'apprentissage en profondeur
Certains scientifiques de l'IA ont également une expérience significative du Big Data :
- L'intelligence d'entreprise
- Conception de la base de données
- Conception d'entrepôt de données
- Exploration de données
- Requêtes SQL
- Rapports SQL
IA faible
L'intelligence artificielle faible est limitée à des domaines spécifiques ou étroits comme la plupart des IA que nous avons autour de nous aujourd'hui :
- Moteurs de recherche
- Siri d'Apple
- Cortana de Microsoft
- Alexa d'Amazon
- Watson d'IBM
L'IA faible est également appelée IA étroite.
L' IA faible simule la cognition humaine contrairement à l'IA forte qui a la cognition humaine .
IA forte
L'intelligence artificielle forte est le type d'IA qui imite l'intelligence humaine.
Une IA forte indique la capacité de penser, de planifier, d'apprendre et de communiquer.
Strong AI est le prochain niveau théorique de l'IA : True Intelligence .
Une IA forte se dirige vers des machines avec une conscience de soi, une conscience et des pensées objectives.
Apprentissage automatique (ML)
La programmation classique utilise des programmes pour créer des résultats :
Informatique traditionnelle
Données + programme informatique = résultat
Le Machine Learning utilise les résultats pour créer des programmes (algorithmes) :
Apprentissage automatique
Données + Résultat = Programme informatique
"L'apprentissage automatique est un domaine d'étude qui donne aux ordinateurs la capacité d'apprendre sans être programmés."
Arthur Samuel (1959)
Réseaux de neurones (NN)
L'une des découvertes les plus importantes de l'histoire est la puissance des réseaux de neurones (NN).
Dans les réseaux de neurones, de nombreuses couches de données appelées neurones sont ajoutées ou empilées les unes sur les autres pour calculer de nouveaux niveaux de données.
Noms abrégés couramment utilisés :
- Réseau neuronal profond DNN
- Réseau neuronal convolutif CNN
- Réseau neuronal récurrent RNN
Apprentissage en profondeur (DL)
Deep Learning sont des algorithmes qui utilisent les réseaux de neurones pour extraire des données de niveau supérieur.
Chaque couche successive utilise la couche précédente comme entrée.
Par exemple, la lecture optique utilise des couches basses pour identifier les bords et des couches supérieures pour identifier les lettres.
Le Deep Learning comporte deux phases :
1. Formation : les données d'entrée sont utilisées pour calculer les paramètres du modèle.
2. Inférence : le modèle "formé" génère des données à partir de n'importe quelle entrée donnée.
La révolution de l'apprentissage en profondeur
La révolution de l'apprentissage en profondeur est là !
La révolution de l'apprentissage en profondeur a commencé vers 2010. Depuis lors, l'apprentissage en profondeur a été utilisé pour résoudre de nombreux problèmes "insolubles".
Exemples
Réseaux de neurones convolutifs (CNN)
Les CNN profonds tels que ResNeta et Inception ont réduit le taux d'erreur dans la classification ImageNet de 25 % en 2011 à 5 % en 2017.
ImageNet est une base de données d'images organisée selon la hiérarchie WordNet, dans laquelle chaque nœud de la hiérarchie contient des centaines et des milliers d'images. ImageNet est une ressource utile pour les chercheurs, les éducateurs, les étudiants et tous ceux qui se passionnent pour les images.
WordNet est une base de données lexicale des relations sémantiques entre les mots dans plus de 200 langues. Il est organisé comme une combinaison d'un dictionnaire et d'un thésaurus, reliant les mots entre eux dans des relations sémantiques en utilisant des synonymes, des hyponymes et des méronymes.
Réseaux de neurones récurrents (RNN)
Les RNN aident à créer des partitions musicales et de nouveaux sons d'instruments :
https://magenta.tensorflow.org/demos .
Histoire de l'IA
1950 | Alan Turing publie "Computing Machinery and Intelligence" |
1956 | L'IA mentionnée pour la première fois par John McCarthy lors d'une conférence universitaire |
1957 | Premier langage de programmation pour le calcul numérique et scientifique (FORTRAN) |
1958 | Premier langage de programmation IA (Lisp) |
1959 | Arthur Samuel a utilisé le terme "Machine Learning" |
1961 | Premier robot industriel (Unimate) sur la chaîne de montage de General Motors. |
1965 | ELIZA de Joseph Weizenbaum a été le premier programme interactif capable de communiquer sur n'importe quel sujet |
1972 | Premier langage de programmation logique (PROLOG) |
1997 | Deep Blue (IBM) bat le champion du monde d'échecs |
2002 | Le premier robot nettoyeur (Roomba) |
2005 | La voiture autonome (STANLEY) remporte la DARPA |
2008 | Percée dans la reconnaissance vocale (Google) |
2011 | Un réseau de neurones l'emporte sur les humains dans la reconnaissance des panneaux de signalisation (99,46 % contre 99,22 %) |
2011 | Pomme Siri |
2011 | Watson (IBM) remporte Jeopardy ! |
2014 | Amazon Alexa |
2014 | MicrosoftCortana |
2014 | La voiture autonome (Google) passe un examen de conduite d'État |
2015 | Google AlphaGo a vaincu divers champions humains dans le jeu de société Go |
2016 | Le robot humain Sofia de Hanson Robotics |