INTELLIGENCE ARTIFICIELLE

Mode dictionnaire contextuel Alexandria et Traduction automatique


Quelques remarques générales, liens et avis divers, sur l'intelligence artificielle ou IA (fin décembre 2017).


@+-*/&@+-*/&@+-*/&@+-*/&⊕∨∧∫⊕∨∧∫@+-*/&⊕∨∧∫@+-*/&@+-*/&@+-*/&@+-*/&

-IA -

Le mot intelligence vient du latin intelligentia, faculté de comprendre, se compose du préfixe inter, entre, et du verbe legere, choisir; étymologiquement, l'intelligence est la capacité à faire un choix parmi les éléments disponibles sur un sujet donné et à les relier entre eux. Il est difficile de définir très précisément l'intelligence, mais il est encore plus difficile de l'évaluer même si les tests de QI sont censés le faire...

L'intelligence artificielle est l'ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables d'effectuer des fonctions normalement associées à l'intelligence humaine (compréhension, raisonnement, dialogue, apprentissage, ...). C'est donc une discipline scientifique relative au traitement des connaissances et au raisonnement; elle consiste à essayer de doter des systèmes informatiques de capacités intellectuelles comparables à celles de l'homme, ou plus exactement permettant de faire aussi bien que le cerveau humain et même beaucoup mieux et plus vite, dans le plus grand nombre de situations possibles...
Il faut savoir que notre cerveau humain possède environ 1011 neurones qui sont reliés entre eux pour créer un énorme réseau neuronal avec de l'ordre de 1015 connexions.
La matière première de l'IA c'est l'information et toutes les données numériques qui lui correspondent; comme l'humanité produit chaque jour plusieurs milliards de milliards de telles données, il est facile d'admettre que les cerveaux humains sont trop limités pour la traiter et que seule l'IA peut le faire; on peut d'ailleurs dire que c'est l'explosion des données produites dans le monde par les hommes qui rend l'IA indispensable et inéluctable. A nous de gérer et de diriger au mieux notre dépendance à l'IA.

Le projet IA est pour le moment, malgré les progrès colossaux déjà accomplis (voir succès et avancées de l'IA), bien loin d'être réalisé. Il manque à l'IA l'inventivité, la conscience de soi et de ce qu'elle fait, les affects, une mémoire éclectique, la réflexion transversale ...

Tous les géants du web, en particulier les américains GAFAM , Google, Apple, Facebook, Amazon, Microsoft (les BATX chinois aussi), proposent bien sûr une analyse intelligente des montagnes de données qu'ils récoltent et s'intéressent de très près à l'IA; aucun organisme européen dans ce peloton et d'ailleurs on peut malheureusement constater qu'actuellement l'Europe est largement à la traîne dans ces recherches et reste très frileuse face à toutes les nouvelles technologies NBIC (contrairement aux Etats-Unis et à la Chine qui dominent le monde sur ces sujets).
Face à ceux qui déplorent un analphabétisme technologique de règle au sommet de l'Etat, une grande mission sur le sujet a été récemment confiée à Cedric Villani l'IA est l'affaire de tout le monde, mais le retard est immense et il faut agir très vite, l'Europe étant pratiquement absente dans tous ces domaines ...
Cedric Villani a besoin de votre matière grise, l'intelligence des foules pour donner du sens à l'IA: il lance une consultation publique sur l'intelligence artificielle.

La capitalisation du GAFAM approche les 3000 milliards de dollars (plus que le PIB de la France) et chacun de ses protagonistes cherche à atteindre seul la barre des 1000 milliards de dollars, les BATX font légèrement moins mais dépassent tous les 500 milliards de dollars; leur investissement financier dans l'IA est énorme et leur assure donc une avance colossale dans le domaine.
Fin 2017, le leader mondial de l'IA est le neuroscientifique et informaticien britannique Demis Hassabis dont la société DeepMind , rachetée par Google, est en particulier championne de Go et à la pointe en recherche médicale.

- De 1936 à 2017 (... et jusqu'au projet avatar de 2045) -

En 1936, Alan Turing a conçu la machine de Turing , modèle abstrait de fonctionnement d'un appareil mécanique de calcul, précurseur de l'ordinateur moderne avec sa carte mémoire. La proposition de test d'intelligence artificielle ou Test de Turing date de 1950: il s'agit de tester la capacité d'une machine à imiter une conversation humaine.
Mais les réels débuts de l'intelligence artificielle se situent en 1943 lorsque Alan Turing (1912-1954) cassa les codes d'Enigma, qui assuraient le cryptage des messages secrets des allemands, ce qui permit aux alliés de connaître quelques informations essentielles sur la stratégie des ennemis; on estime aujourd'hui que Alan Turing a permis ainsi de raccourcir la guerre de deux ans.

C'est l'article de 1950 de Alan Turing qui signe les débuts des premières recherches sur l'IA.
Les cofondateurs de la discipline, qui ont aussi donné le nom de baptème IA, sont le mathématicien Marvin Minsky (1927-2016) et l'informaticien John McCarthy (1927-2011) lors d'un congrès en 1956. Ils ont créé le groupe de recherches IA au MIT en 1959. Deux grands autres personnages sont aussi intervenus, Nathaniel Rochester (1919-2001) créateur du premier ordinateur produit en série, l'IBM 701 (en 1952) et Claude Shannon (1916-2001), le père de la théorie de l'information et de l'entropie de Shannon .

Le net développement de la recherche sur l'IA date des années 60, les systèmes experts et les premiers travaux sur les réseaux neuronaux des années 80 et l'explosion sur ces sujets se situe dès 2000 et surtout à partir de 2010; en 2012 les microprocesseurs GPU révolutionnent les calculs graphiques avec leurs énormes puissances de calcul. C'est aussi bien sûr, la croissance régulière de la puissance de calcul de nos puces, conformément à la l'empirique loi de Moore (énonçée en 1965), qui a permis cette évolution exponentielle du numérique.
Parallèlement et en étroite symbiose avec l'IA, les recherches en robotique manifestent aussi une belle progression mais moins rapide...

Depuis les années 2010, la méthode phare de l'IA est l'apprentissage profond ou Deep learning ; c'est une technique d'apprentissage automatique ou machine learning. Cette méthode permet par exemple de reconnaître le contenu d'une image, sans qu'on ait eu besoin d'expliquer et coder les transformations de l'image pour la classifier, avec le deep learning c'est la machine qui apprend à le faire elle-même. Cette méthode a révolutionné les recherches sur l'IA et toutes les grandes entreprises du numériques (GAFAM, BATX, Adobe, IBM, ...) y investissent des fortunes. Ajoutons que l'auto-apprentissage est présent dans la nature depuis bien longtemps et constitue un des moteurs de l'évolution des espèces, comme par exemple dans les relations arbres-animaux .

Les projets d'avenir fleurissent, tant chez les transhumanistes que dans toutes les grandes entreprises mondiales du numérique, les plus fous étant le projet Calico de Google et surtout celui du milliardaire russe Dmitry Iskov avec 2045...

- RESEAUX NEURONAUX -

Un neurone artificiel, ou numérique, ou formel, est un bloc de code informatique (ou programme) qui tâche d'imiter le comportement et l'action d'un neurone, ou au moins de s'en inspirer.
Comme le neurone biologique, il possède plusieurs entrées (actions d'autres neurones) et une sortie (vers un autre neurone).
Dans sa version la plus simple un neurone formel, unité élémentaire d'un réseau, calcule la somme pondérée des entrées reçues, puis applique à cette valeur une fonction d'activation , et fournit la valeur finale en sortie du neurone (c'est donc une fonction à plusieurs variables et à valeurs réelles).
Un réseau de neurones artificiels, ou réseau neuronal artificiel, constitué de plusieurs couches de neurones, est un ensemble d'algorithmes dont la conception est à l'origine très schématiquement inspirée du fonctionnement des neurones biologiques, et qui par la suite s'est aussi rapproché de méthodes statistiques.
Les réseaux neuronaux sont en général optimisés par des méthodes d'apprentissage de type probabiliste et plus précisément de type bayésien: l'inférence bayésienne permet de déduire la probabilité d'un certain évènement à partir de celles d'autres évènements déjà analysés et évalués.

Tout ceci s'appuie sur le théorème de Bayes sur les probabilités conditionnelles: la probabilité d'un évènement A sachant que l'évènement B a eu lieu, notée P(A|B) est donnée par
P(A|B)= P(B|A) P(A) / P(B)

Les neurones virtuels effectuent chacun de petits calculs, ils sont rassemblés en plusieurs couches, chaque couche produisant un calcul qui sera utilisé par la suivante ...Pour faire fonctionner par exemple une reconnaissance d'images, on va fournir au programme un très grand nombre d'images variées de chats par exemple pour que pas à pas le réseau puisse apprendre à reconnaitre un chat dans d'autres images (en 2012 Google Brain a su découvrir par lui-même le concept de chat, après plusieurs jours de moulinage des millions d'images fournies au réseau: première illustration concrète de l'apprentissage profond de la machine sans supervision d'un humain).
Récemment (début décembre 2017) la NASA a découvert deux nouvelles exoplanètes grâce à une IA .

Les réseaux de neurones artificiels utilisent assez souvent le principe de l'approximation fonctionnelle: 'ils apprennent une certaine fonction en regardant des exemples d'utilisation de la dite fonction'. Un des exemples les plus simples est celui d'un réseau apprenant la fonction XOR (OU exclusif).
Pour 'faire apprendre' à un réseau de neurones il y a deux algorithmes souvent utilisés: le premier est la méthode de descente du gradient, le second un peu plus efficace, mais qui n'est qu'une variante du précédent, est l'algorithme de Widrow-Hoff ( Neurones artificiels Feed Forward).
Ces algorithmes sont encore appelés algorithmes de rétropropagation d'erreur . Concrètement, dans sa phase d'apprentissage, un réseau a besoin de connaître la réponse théorique (celle à apprendre, par exemple reconnaître l'image d'un chat); si celle calculée (à partir de la somme pondérée des entrées) est inexacte, il faut modifier les poids des entrées pour minimiser l'erreur, c'est ce que fait un tel algorithme.

- Fonction d'activation -

Pour la sortie d'un neurone artificiel (unité élémentaire de traitement du réseau) on applique au signal d'entrée une fonction d'activation ou encore fonction de transfert; c'est une fonction le plus souvent non-linéaire et, plus précisément, les fonctions généralement utilisées sont la fonction de Heaviside ou la fonction sigmoïde (cette dernière ayant l'avantage d'être dérivable). Cette fonction est censée renvoyer un réel proche de 1 quand de 'bonnes' entrées sont données et un réel proche de 0 quand elles sont 'mauvaises'; elle est en quelque sorte le traitement ou le calcul que le neurone effectue sur les variables d'entrée qu'il a reçues d'autres neurones.

Dans la phase d'apprentissage, un réseau doit connaître la réponse théorique (celle qu'il doit apprendre, par exemple la reconnaissance d'une image comme un chat ..); si la sortie calculée d'une couche de neurones (à partir d'une somme pondérée des entrées) est inexacte, il faut modifier les poids des entrées pour minimiser l'erreur. C'est un algorithme de rétropropagation des erreurs qui assure cette action.
Il est important de noter qu'un algorithme IA de type deep learning n'est pas un programme informatique banal, il évolue constamment et n'est pas listable raisonnablement (trop changeant et trop long ..); on est assez loin de nos anciens programmes informatiques bien figés et listables.

Les microprocesseurs utilisés dans les IA sont spécifiques; Apple et Google préparent des microprocesseurs spécialement dédiés à l'IA, Intel vient de dévoiler Loihi, prototype de processeur neuromorphique (qui s'inspire, dixit, du comportement du cerveau humain) qui comprend 130.000 neurones et 130 millions de synapses en silicium.
Mais notons bien que lorsqu'une IA fait son apprentissage et donc modifie pas à pas son codage, nous ne savons pas exactement ce qui est fait dans le code ni s'il a 'bien appris', on ne récupère que des résultats. L'IA ne sait pas analyser ses propres résultats ni en apprécier leur pertinence.

Apprendre à coder un réseau de neurones
Précisions mathématiques et statistiques sur les divers réseaux neuronaux.

- SUCCES et AVANCEES de l'IA -

- Les succès définitifs de IA pour certains jeux:

1997 Deep Blue et le jeu d'échecs: un ordinateur champion du monde d'échecs
2007 Chinook et le jeu de dames, la stratégie optimale est obtenue: Chinook imbattable au jeu de dames
2015-2016 AlphaGo et le jeu de go; on utilise ici des réseaux de neurones formels.
AlphaGo zéro dernière version vient de pulvériser le champion du monde de go.
Janvier 2017: L'IA LIBRATUS triomphe au poker holden devant des humains.

- Dans divers autres domaines, les avancées sont plus ou moins nettes:

Voitures autonomes: des avancées très nettes mais pas encore au point même après plus de 200 millions de km parcourus.

Production d'articles journalistiques (évènements, sport, ..):
en 2014 premier article écrit par un robot à propos d'un tremblement de terre;
l'IA Lsjbot produit automatiquement plusieurs articles par jour (assez courts mais très nombreux) en Suède à partir d'une banque de données.

Google vient de céer la plus puissante IA :AutoML capable de créer elle-même une autre IA, baptisée NASNet , qui peut reconnaître en temps réel divers objets (voitures, personnes, sac à dos, ...).
Une IA crée des visages humains complètement virtuels.
Assez bons résultats pour les agents personnels ou agents conversationnels (ou chatbots) comme Cortana (Windows) ou Siri (Apple) dont le successeur Viv est en cours de conception et devrait accepter des requêtes beaucoup plus complexes que Siri; citons aussi Alexa d'Amazon et Home de Google, ainsi que l'extension de la technologie chatbot dans le e-commerce.

Le robot humanoïde Sophia vient d'obtenir officiellement la nationalité saoudienne
L'IA d'Ibm Watson développe des systèmes experts (santé, banque, ...): il répond à des questions posées en langage naturel et peut aussi composer de la musique.
Watson peut aussi 'consulter' des millions de pages assez vite et il gagne au jeu américain Jeopardy.

Traduction google (IA avec deep learning):
pas encore excellente mais assez satisfaisante et très pratique (voir les traductions des pages de ce site)...l'IA de Google traduction capable d'inventer son propre langage? pour traduire deux langues (non apprises) sans lien entre elles;
ce qui ferait dire à Google que l'IA Google traduction apprend trop vite ...

Test de Turing revisité pour apprécier si la machine peut se comporter comme un humain dans une conversation verbale:
Cleverbot en 2011 : erreur de presque 50% conforme à la prédiction de Turing;
un test d'indiscernablilté n'est pas encore obtenu, mais réussir parfaitement le test de Turing est-il vraiment important? .
Il a aussi été proposé de dépasser le test de Turing avec le test de Levesque .
IA efficaces pour divers calculs de dérivées, intégrales et de nombreux calculs formels; mais on a déjà les Matlab, Maple, Mathematica, Mathhandbook ...
Traitement d'images, des vidéos et du langage: de bons résultats grâce aux réseaux de neurones convolutifs.
Google rend disponible en open source son outil IA Deepvariant: il peut être utilisé pour améliorer la précision du séquençage du génome.
Google dévoile son projet BRAINWAVE pour 'fournir de l'intelligence artificielle en temps réel'.

-CONCLUSION-

L'IA égale, et même surpasse (souvent nettement), l'homme dans un certain nombres de situations bien précises et bien spécialisées, mais elle ne procède pas comme le cerveau humain; elle ne permet pas non plus, actuellement, de mieux comprendre notre propre démarche cérébrale, ni en particulier de savoir comment nous prenons nos décisions. Et surtout, elle ne peut pas avoir de réflexion critique sur ses propres modes de réflexion et d'analyse (elle n'est pas douée de métacognition comme nous les humains) et elle n'a aucun bon sens (celui des humains et des animaux).
L'IA a cependant déjà transformé le monde et va jouer un rôle de plus en plus prépondérant dans l'économie mondiale, l'éducation (tant pour les enseignants que pour les enseignés), la médecine, la politique des futurs e-états ... et elle va certainement révolutionner notre e-mode de vie.
Peut-être n'aurons-nous même plus besoin de savoir écrire des codes informatiques , les réseaux neuronaux le feront pour nous!
Au final serons-nous assez intelligents pour controler les IA?
Même si notre cerveau n'a pas les capacités de travail quasi illimitées (sic) des IA, et ne fonctionne pas avec des algorithmes, il sait faire des raisonnements critiques et heuristiques, appréhender la sérendipité, bénéficier de ses affects dans ses réflexions, organiser sa mémoire, prendre des décisions rapides, imaginer,... et devrait très probablement savoir maintenir la hiérarchie (et la cohabitation) entre le neurone et le silicium en assurant leur complémentarité, tout en faisant régulièrement (voire exponentiellement) progresser l'IA, pour le plus grand bénéfice de l'humanité.


- Loi de MOORE -
Enoncée en 1965, la loi de MOORE devrait se vérifier facilement jusqu'en 2023 ...et se terminer en 2030, d'après la société savante IEEE, comme l'assurait déjà en janvier 2017 le patron d'Intel Brian Krzanich.

Pour laisser un message ou un commentaire.

Vers la page index de Sayrac
la page sciencediv
et la page cryptage