Discuter:Intelligence artificielle/Brouillon

Un article de Wikipédia, l'encyclopédie libre.

L'Intelligence Artificielle est une expression forgée par l’informaticien John McCarthy en 1956 au moment où l’informatique en était à ses tout premiers pas. Elle est souvent abrégée avec le sigle IA. Marvin Lee Minsky, cofondateur avec McCarthy du 1er centre de recherche sur l’IA la définit comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». Cette définition date d'une époque où l'ordinateur - au sens d'aujourd'hui - était très loin d'exister. En fait, il n'existait à l’époque qu'une dizaine de machines dans le monde précurseurs de nos ordinateurs : les fameux Univac. C’étaient de gigantesques machines à calculer à « lampes » - les ancêtres des transistors eux-mêmes ancêtres des circuits imprimés, eux-mêmes ancêtres des microprocesseurs - qui en faisaient moins qu'une calculatrice de proche des années 1970 (elles ne savaient même pas diviser). Un demi-siècle après, en dépit des progrès extraordinaires des ordinateurs et de l’informatique, les résultats obtenus par l’Intelligence Artificielle sont mitigés au point que même les spécialistes ne s’accordent pas sur ce qu’elle est réellement. Beaucoup doutent que l’ambition de Minsky soit possible avant longtemps, alors que d’autres soulignent que des percées décisives sont apparues dès la fin des années 1980 pour l’automatisation du « raisonnement critique » : le système expert et dix ans après pour l’automatisation de « l’apprentissage conceptuel » : le réseau de neurones.

Sommaire

[modifier] Une définition …multiple

Pour certains spécialistes, plutôt logiciens, la définition donnée par Minsky se suffit en elle-même : l'Intelligence Artificielle, c'est "l'automatisation de processus mentaux" conscients (théorie de « l’IA forte »). Ce sont les techniques qui permettent à l’ordinateur de communiquer avec ses utilisateurs de façon humaine et de fonctionner par le raisonnement, qui peuvent donner l’impression d’intelligence et de conscience. Pour eux, l’IA se manifeste simplement par le fait que l’ordinateur sait communiquer directement avec ses utilisateurs humains, sans passer par un informaticien. Si l'on se réfère à l’association littérale des deux mots "intelligence" et "artificiel", le sens est clair. "Intelligence" signifie capacité à créer des liens entre informations pour en produire de nouvelles. C’est elle qui permet de simuler le réel auquel est confronté tout être vivant et de trouver les solutions favorables à sa survie. Son moteur, c’est le raisonnement dont parle Minsky, raisonnement lui-même moteur du langage humain. Quant à "artificiel", son sens est aussi clair : une aptitude existant dans la nature mais copiée par l'homme au travers d'une machine. La réunion des deux mots donne : l’Intelligence Artificielle est une machine donnant l’impression de penser comme l’homme. Les chercheurs qui travaillent dans cette voie ont abouti à des résultats probants avec les « systèmes experts », une forme de logiciel qui simule le raisonnement d’un expert, installée en grand nombre dans les entreprises.

Pour un autre groupe de spécialistes, plutôt mathématiciens, si un programme simule des processus mentaux inconscients ou instinctifs, par exemple l’« arc réflexe » (ou « réflexe de Pavlov »), cela suffit pour affirmer qu’il relève de l’Intelligence Artificielle (voir Intelligence Computationnelle). C’est l’objet des recherches menées autour de l’apprentissage automatique, qui ont abouti aux « réseaux de neurones ». Pour mettre en œuvre cette forme d’IA, ils font appel au calcul complexe, là où les premiers font plutôt appel aux techniques de gestion de bases de données. Les réseaux neuronaux sont déjà utilisés dans l’industrie, par exemple pour la reconnaissance de l’écriture manuscrite ou des signaux radars. Les chercheurs qui travaillent sur ce type de technique espèrent parvenir bientôt à générer automatiquement par l’observation du réel des connaissances supérieures, celles qui pourront être exploitées par le 1er groupe.

Enfin, pour d’autres, beaucoup moins exigeants, il suffit qu’un programme donne l’impression d’une certaine intelligence pour qu’il relève de l’IA (théorie de « l’IA faible »). Cette vision est souvent critiquée car il n’y a pas de critère objectif pour séparer les programmes qui paraissent intelligents de ceux qui ne le paraîtraient pas. Le meilleur exemple est « l’IA » de certains jeux vidéos modernes. Ces jeux pilotent des personnages fictifs humains (« bots ») contre lesquels le joueur doit lutter, ce qui oblige les concepteurs à leur donner le comportement le plus intelligent possible. De l’avis-même de l’ensemble des joueurs, cette IA, quoique progressant chaque année, est encore bien fruste et en mérite difficilement le nom. Aussi, pour que le jeu ne soit pas trop facile donc peu attractif, les concepteurs compensent la qualité par la quantité : ils multiplient le nombre d’adversaires s’opposant simultanément au joueur. Une IA satisfaisante serait capable de piloter un seul adversaire de taille à lutter contre le joueur. Un autre exemple, plus ancien : les programmes de jeu d’échecs. Les plus sophistiqués ou puissants, comme Deep Blue, se sont révélés capables de battre, une fois, le champion du monde d’échecs. Pour certains, c’est la preuve de leur intelligence. Et pourtant, il est admis qu’ils ne font pas appel à l’IA. En effet, là où le joueur d’échecs développe une stratégie, effectue des raisonnements et sait reconnaître d’un coup d’œil l’intérêt ou le danger d’une position, les programmes d’échecs, eux, se contentent de calculer. Ils explorent tous les coups possibles sans discernement, même ceux qui seraient qualifiés de « stupides » par n’importe quel joueur confirmé, affectant des probabilités de succès à chacun et aux milliers de coups possibles qui en découlent. A la fin du temps imparti, le calcul s’arrête et le coup présentant la meilleure probabilité de réussite est joué. Ce manque d’exigence dans la définition de l’IA permet à nombre de logiciels du commerce de se prétendre IA comme argument de vente, même s’ils ont été écrits tout à fait classiquement. Une fois dans les mains de leurs utilisateurs, ils ne se révèlent pas différents des autres logiciels, déception qui contribue à donner à l’Intelligence Artificielle une image brouillée et plutôt négative.


[modifier] Les résultats de l’IA aujourd’hui

Pour les tenants de la définition de Minsky comme pour les tenants de l’intelligence computationnelle, un programme d'IA doit doter l’ordinateur d’une ou de plusieurs de ces fonctionnalités :

  • Capacité de décider par le raisonnement, de fournir des explications en clair sur le raisonnement, de détecter les contradictions au sein des données à traiter
  • Capacité de dialoguer normalement avec l’homme
  • Capacité d’apprendre au contact avec l’homme, comme un bon élève : l’homme enseigne à l’ordinateur ce qu’il sait ou l’ordinateur apprend, seul, la connaissance par l’analyse d’un texte
  • Capacité d’apprendre par l’observation, non guidée par l’homme (par analyse de données capteurs sur une longue durée par exemple).
  • Dans le domaine de la spéculation, on peut ajouter qu'un programme dotant une machine d'une apparente conscience de soi relèvera de l'IA.

Ces aptitudes mentales permettent à l’informatique de produire de nouveaux types d’applications :

  • Programmes conversationnels (étant entendu que la programmation procédurale sait en produire mais de courte durée et, surtout, sans qu'il soit possible de les faire modifier en temps réel par un expert pour les adapter à la progression des connaissances)
  • Outils d'aide à la décision, d'aide au diagnostic, de diagnostic de panne, de résolution de problèmes (toutes applications nécessitant du raisonnement sur des connaissances très évolutives qui, sinon, deviendraient obsolètes)
  • Interfaces homme-machine intelligentes (de plus en plus vocales et conversationnelles, basées sur une interactivité maximum avec l’utilisateur, capables de déduire ou deviner ses besoins pour lui éviter des manipulations superflues)
  • Robotique (au sens d’Asimov, le summum de la simulation de l’intelligence humaine, pas la robotique industrielle actuelle)
  • Génie logiciel (abandon de la programmation procédurale)
  • Logiciels pédagogiques, didacticiels (applications réclamant du raisonnement, des diagnostics, de l’explication, de la simulation)
  • Simulation logique (par opposition à : simulation numérique), test d'idées


[modifier] Les outils d'IA

Au fil du temps, certains langages de programmation se sont avérés plus commodes que d’autres pour tenter d'écrire des applications relevant de l’intelligence artificielle. Parmi ceux-ci, Lisp inventé par John McCarthy aux USA en 1958, puis Prolog conçu en France en 1972, furent sans doute les plus médiatisés. Lisp n'avait qu'un rapport lointain avec l'IA, mais Prolog ressemblait déjà à un générateur de systèmes experts, avec sa base de règles et son moteur fonctionnant en chaînage arrière avec une logique (dite « d'ordre 1 »). Prolog ne raisonnait pas mais fut le premier langage informatique "déclaratif", par opposition aux langages classiques dits "procéduraux". Dans un programme procédural, tous les chemins utilisés pour parvenir aux résultats ont été définis un à un par le programmeur, ce qui explique la lourdeur de l'opération. Dans un programme déclaratif, le moteur est censé trouver tout seul à l'instant le bon chemin vers la solution.

[modifier] Logique d'ordre 0+

Au cours des années 1980, les chercheurs IA français se sont spécialement penchés sur la programmation de logiques pouvant donner de l’intelligence aux ordinateurs. C’est ainsi que l’on a vu apparaître les logiques floue, d’ordre zéro, d’ordre 1 (Prolog), épistémique , temporelle, modale, etc. La logique floue, la première à apparaître (Mycin), a produit nombre de systèmes experts. Elle présente cependant le défaut de n’être pas naturelle : elle progresse par le calcul et non par le raisonnement. Les conclusions des règles « floues » sont affectées de coefficients de certitude sur lequel le calcul va s’exercer pour aboutir aux résultats. L’automatisation des logiques épistémique, modale et temporelle sont encore du domaine de la recherche. La logique d’ordre 1 a permis, grâce à Prolog, de développer nombre de programmes depuis 20 ans. Elle est aujourd’hui en voie de disparition, n’offrant apparemment pas d’avantages par rapport aux techniques procédurales classiques qui, elles, s’améliorent sans cesse. De toutes ces logiques, une seule a révélé un énorme potentiel : la logique d’ordre zéro, qui raisonne de façon humaine, compréhensible de tous et qui s’adapte à n’importe quelle expertise humaine (voir système expert). Elle a donné en 1985 un outil extrêmement probant : le générateur de système expert dit "d'ordre O+". Ce fut le premier à montrer les aspects « mentaux » réclamés par Minsky : réelle capacité de raisonnement, aptitude à résoudre les problèmes, à décider, à apprendre et à dialoguer (« conversationnel ») s’appuyant sur le raisonnement, aptitude à expliquer ce qu’il « pense » et même aptitude à critiquer la connaissance par la détection des contradictions (le « raisonnement critique » de Minsky). Son représentant le plus illustre fut "Intelligence Service", produit commercial dérivé de « Pandora », générateur de systèmes experts conçu en 1985 par deux thésards de l'Université Paris VI. Il fut commercialisé par les SSII GSI-TECSI et Arcane, qui l’ont vendu à des centaines d'exemplaires. Le système expert d’ordre 0+ est ainsi le 1er outil parfaitement opérationnel issu des techniques de l’IA. Par la même occasion, il est le premier à avoir démontré la faisabilité de l’« IA forte ».

[modifier] Une méthode de production de systèmes experts : la "Maïeutique"

En 1986, la société française Arcane, fondée par Jean-Philippe de Lespinay, réalisait pour la Banque de Bretagne avec Intelligence Service le 1er système expert de conseil en placement financier opérationnel de l'histoire : Joséphine, qui eut un grand retentissement. Ce système expert faisait un millier de règles, ce qui était énorme et fut développé en seulement 3 mois par un cadre d’entreprise non informaticien. Il faut savoir qu’à l’époque, un système expert important réclamait une équipe d’informaticiens pendant un an et coûtait environ 1 million de dollars. Joséphine avait été développée en si peu de temps grâce à une méthode de recueil de connaissance imaginée par Jean-Philippe de Lespinay : la "Maïeutique", baptisée ainsi en l’honneur de la méthode socratique du même nom. La Maïeutique ne peut fonctionner qu’avec la logique d’ordre zéro +, donc avec Intelligence Service à l’époque. Le développeur utilisant cette méthode et étant familier du zéro + est un maïeuticien. La Maïeutique consistait à décrire le savoir faire de l’expert à mettre dans le logiciel sous forme d’arborescences dessinées sur papier. Ensuite, le maïeuticien extrayait de ces arbres les règles à introduire dans Intelligence Service. Pour la première fois de l’histoire, entre l’expert métier - celui qui possède la connaissance à mettre dans le programme - et le programme opérationnel lui-même, pas d’informaticien. Un seul intermédiaire : le maïeuticien. Cet intermédiaire pouvait même disparaître au profit de l’expert au bout de quelques jours, la méthode étant intuitive.

En 1990 Arcane développa "Maïeutica", un générateur de systèmes experts exploitant la Maïeutique, grâce au concours de l'Anvar (futur OSEO). Maïeutica disposait de son propre moteur d’ordre O+, « Moca », et ne reposait plus sur Intelligence Service. L’innovation résidait dans le fait que le générateur ne permettait pas au développeur d’écrire lui-même les règles. Il avait pour seule représentation de l’expertise une bibliothèque d’arbres de décision rédigée dans le langage de l’expert. La génération des règles et leur maintenance se faisaient automatiquement, pour éviter l’erreur humaine. En 2000, Maïeutica élargit son champ d’action et devint générateur d'applications sous le nom de T.Rex (« Tree Rules Extractor »). Cet outil d’IA est capable de générer des systèmes experts sous forme de « dll » directement à partir de l’expertise métier. Il démontre, pour la 1ère fois, que des programmes classiques peuvent être développés sous la forme système expert, avec l’avantage considérable de la rapidité de développement et de maintenance puisqu’il n’y a plus de programmeur.

[modifier] La Maïeutique, une technique IA de génie logiciel

Toute application est constituée de 4 parties :
  • des données
  • une ou plusieurs IHM (interfaces Homme-machine)
  • une expertise-métier
  • une cinématique (expertise pilotant le déroulement de l'application)
Il existe sur le marché des outils très évolués pour gérer les données et créer des IHM, si intuitifs que certains d’entre eux sont à la portée des non informaticiens (Windev). Mais programmer une expertise a toujours demandé une compétence de développeur informaticien. L’association d’un outil comme T.Rex, qui programme automatiquement les expertises, avec les outils de gestion de données et de génération d'IHM les plus « conviviaux » donne l’équivalent d’un langage de programmation pour non informaticien.


[modifier] Suite de l'article

  • Intelligence artificielles forte et faible : je propose de la supprimer car cette notion (que je conteste vivement) est déjà approchée dans la "définition controversée"
  • Culture populaire : Ok, on conserve
  • Courants de pensée : OK + rapprocher peut-être intelligence computationnelle de cybernétique qui sont à mon avis très proches, et y ajouter  : Cognitivisme et Connexionisme
  • Synthèse, domaines d'applications : supprimés
  • Précurseurs et la suite : à conserver, sauf "jeux vidéos" qu'il va falloir revoir car la plupart des jeux 3D se vantent aujourd'hui de donner une intelligence artificielle à leurs "bots" (personnages simulés par l'ordinateur), ce qui n'est pas encore le cas. Mais, dans l'ignorance, ce point de vue est accepté aujourd'hui...

[modifier] Bibliographie

[modifier] Aspects techniques

[modifier] Aspects philosophiques

  • Philosophie contre intelligence artificielle (1996), ISBN 2912059003, Jacques Bolo
  • Pensée et machine (1993), ISBN 2903528284, Alan Ross Anderson
  • Le Concept de preuve à la lumière de l'intelligence artificielle (1999), ISBN 2130501044, Jean Sallantin, Jean-Jacques Szczeciniarz

Fondements cognitifs, psychologiques et biologiques :

  • Intelligence artificielle et psychologie cognitive (1998), ISBN 2100029894, Hervé Chaudet, Liliane Pellegrin

Aspects linguistiques :

[modifier] Articles, conférences et publications

  • Exposé "les 7 avantages des systèmes-experts" (JP de Lespinay) et exposé "le système expert Banque de Bretagne de conseil en placement financier" par Jean-Louis Préteseille de la Banque de Bretagne, aux "Journées Internationales de l'Intelligence Artificielle 1987", Palais des Congrès Porte Maillot à Paris, le 17 juin 1987
  • "La Maïeutique : une méthode de réalisation de systèmes experts opérationnels" au CESTA (Centre d'Etudes des Systèmes et Technologies Avancées, rue Descartes à Paris), 19 novembre 1987
  • Exposés "Intelligence Artificielle et systèmes experts : principes et avantages" et "La Maïeutique : une démarche IA tournée vers les PMI" au Colloque "Les systèmes experts et les IAA, Réalités et Perspectives" organisé par l'APRIA (association pour la,promotion industrie agriculture)
  • "Un système expert de conseil en placement à la Banque de Bretagne" par Jean-Luc Préteseille à la 7ème Semaine Française de Marketing Direct au Palais des Congrès à Paris
  • Exposé sur l'IA au colloque CIGREF-AIA des 14-15/12/1988
  • Exposé au 3ème colloque européen Fiabex (11-13 décembre 1990)
  • Les Echos du 11 juillet 1986, page 2 : "L'intelligence artificielle chez soi"
  • 40 articles sur le système expert Joséphine (Banque de Bretagne) : Ouest France, Les Echos, Le Figaro, LePoint, Le Nouvel Economiste, La Croix, Le Grand Livre du Marketing, Banque et Informatique, Bancatique, Bretagne Economique, la revue du CXP, 01 Informatique, Technologies Bancaires, Ordinateurs, Le Monde Informatique, Ressources/Temps Réel, Défis, Science et Technologie, LLIA, FTS, L'Obs Economie, Courrier Cadres, Decision Informatique, Science et Vie Micro, Le Nouvel Observateur, Maintenance, Industries et Techniques, French Technology Survey, MOCI, Univers Cité, Newbiz (avril 2002), Centres-Appels.com, etc.