AI Sciences

L'Intelligence Artificielle est un ensemble de différentes Sciences :

  • Apprentissage automatique (ML)
  • Réseaux de neurones (NN)
  • Apprentissage en profondeur (DL)
  • Big Data
Weak Machine Learning Neural Networks Big Data Deep Learning Strong

Scientifiques de l'IA

Les scientifiques de l'IA construisent des logiciels avec des algorithmes capables d'effectuer des tâches qui nécessitent normalement l'intelligence humaine.

Les scientifiques de l'IA peuvent être des experts dans plusieurs disciplines de l'IA :

  • Mathématiques appliquées
  • Statistiques informatiques
  • L'informatique
  • Apprentissage automatique
  • L'apprentissage en profondeur

Certains scientifiques de l'IA ont également une expérience significative du Big Data :

  • L'intelligence d'entreprise
  • Conception de la base de données
  • Conception d'entrepôt de données
  • Exploration de données
  • Requêtes SQL
  • Rapports SQL

IA faible

L'intelligence artificielle faible est limitée à des domaines spécifiques ou étroits comme la plupart des IA que nous avons autour de nous aujourd'hui :

  • Moteurs de recherche
  • Siri d'Apple
  • Cortana de Microsoft
  • Alexa d'Amazon
  • Watson d'IBM

L'IA faible est également appelée IA étroite.

L' IA faible simule la cognition humaine contrairement à l'IA forte qui a la cognition humaine .


IA forte

L'intelligence artificielle forte est le type d'IA qui imite l'intelligence humaine.

Une IA forte indique la capacité de penser, de planifier, d'apprendre et de communiquer.

Strong AI est le prochain niveau théorique de l'IA : True Intelligence .

Une IA forte se dirige vers des machines avec une conscience de soi, une conscience et des pensées objectives.

Il n'est pas nécessaire de décider si une machine peut "penser".
Il suffit de décider si une machine peut agir aussi intelligemment qu'un humain.

Alan Turing


Apprentissage automatique (ML)

La programmation classique utilise des programmes pour créer des résultats :

Informatique traditionnelle

Données + programme informatique = résultat

Le Machine Learning utilise les résultats pour créer des programmes (algorithmes) :

Apprentissage automatique

Données + Résultat = Programme informatique

"L'apprentissage automatique est un domaine d'étude qui donne aux ordinateurs la capacité d'apprendre sans être programmés."

Arthur Samuel (1959)


Réseaux de neurones (NN)

L'une des découvertes les plus importantes de l'histoire est la puissance des réseaux de neurones (NN).

Dans les réseaux de neurones, de nombreuses couches de données appelées neurones sont ajoutées ou empilées les unes sur les autres pour calculer de nouveaux niveaux de données.

Noms abrégés couramment utilisés :

  • Réseau neuronal profond DNN
  • Réseau neuronal convolutif CNN
  • Réseau neuronal récurrent RNN

Apprentissage en profondeur (DL)

Deep Learning sont des algorithmes qui utilisent les réseaux de neurones pour extraire des données de niveau supérieur.

Chaque couche successive utilise la couche précédente comme entrée.

Par exemple, la lecture optique utilise des couches basses pour identifier les bords et des couches supérieures pour identifier les lettres.

Le Deep Learning comporte deux phases :

1. Formation : les données d'entrée sont utilisées pour calculer les paramètres du modèle.

2. Inférence : le modèle "formé" génère des données à partir de n'importe quelle entrée donnée.


La révolution de l'apprentissage en profondeur

La révolution de l'apprentissage en profondeur est là !

La révolution de l'apprentissage en profondeur a commencé vers 2010. Depuis lors, l'apprentissage en profondeur a été utilisé pour résoudre de nombreux problèmes "insolubles".


Exemples

Réseaux de neurones convolutifs (CNN)

Les CNN profonds tels que ResNeta et Inception ont réduit le taux d'erreur dans la classification ImageNet de 25 % en 2011 à 5 % en 2017.

ImageNet est une base de données d'images organisée selon la hiérarchie WordNet, dans laquelle chaque nœud de la hiérarchie contient des centaines et des milliers d'images. ImageNet est une ressource utile pour les chercheurs, les éducateurs, les étudiants et tous ceux qui se passionnent pour les images.

WordNet est une base de données lexicale des relations sémantiques entre les mots dans plus de 200 langues. Il est organisé comme une combinaison d'un dictionnaire et d'un thésaurus, reliant les mots entre eux dans des relations sémantiques en utilisant des synonymes, des hyponymes et des méronymes.

Réseaux de neurones récurrents (RNN)

Les RNN aident à créer des partitions musicales et de nouveaux sons d'instruments :
https://magenta.tensorflow.org/demos .


Histoire de l'IA

1950Alan Turing publie "Computing Machinery and Intelligence"
1956L'IA mentionnée pour la première fois par John McCarthy lors d'une conférence universitaire
1957Premier langage de programmation pour le calcul numérique et scientifique (FORTRAN)
1958Premier langage de programmation IA (Lisp)
1959Arthur Samuel a utilisé le terme "Machine Learning"
1961Premier robot industriel (Unimate) sur la chaîne de montage de General Motors.
1965ELIZA de Joseph Weizenbaum a été le premier programme interactif capable de communiquer sur n'importe quel sujet
1972Premier langage de programmation logique (PROLOG)
1997Deep Blue (IBM) bat le champion du monde d'échecs
2002Le premier robot nettoyeur (Roomba)
2005La voiture autonome (STANLEY) remporte la DARPA
2008Percée dans la reconnaissance vocale (Google)
2011Un réseau de neurones l'emporte sur les humains dans la reconnaissance des panneaux de signalisation (99,46 % contre 99,22 %)
2011Pomme Siri
2011Watson (IBM) remporte Jeopardy !
2014Amazon Alexa
2014MicrosoftCortana
2014La voiture autonome (Google) passe un examen de conduite d'État
2015Google AlphaGo a vaincu divers champions humains dans le jeu de société Go
2016Le robot humain Sofia de Hanson Robotics
Se réconcilier