Discuter:Intelligence artificielle

Un article de Wikipédia, l'encyclopédie libre.

Feux éteints
Pour éviter une éventuelle guerre d’édition, le concours des wikipompiers a été demandé sur cette page de discussion.
  • Pour plus d’informations concernant la procédure mise en place et le rôle des wikipompiers, veuillez consulter : Rôles et méthodes.
  • Pour connaître l’état de la procédure : Wikipédia:Wikipompiers.
Feu n°20080303193630

Sommaire

[modifier] système experts ?

Il me semble que les système experts sont établis à partir de l'intelligence artificielle mais que ce n'est pas une technique à proprement parler ; plutôt une application ; qu'en pensez vous ?
szdavid 24 jan 2004 à 15:40 (CET)

Exact, c'est bien une application aujourd'hui. Cependant, il faut tout de même que l'article dise un mot sur MYCIN et EMYCIN qui sont incontournables dans le domaine. Comme l'article est déjà très long, peut-être devra-t-il éclater en petits articles qui, en ce cas, feraient partie de la catégorie Intelligence artificielle, elle-même présentant leur articulation et comprenant juste le plan du présent article à titre de "table d'orientation". Cette idée semble assez séduisante :-) 81.65.27.14 12 septembre 2005 à 04:54 (CEST)

[modifier] "langage spécialisé"

Parler de "langage spécialisé" pour désigner C ou C++ est pour le moins curieux. Ils sont utilisés dans à peu près tous les domaines de l'informatique, et parfois au détriment de langages plus adaptés. J'enlève l'adjectif. Virgile 6 mar 2004 à 20:50 (CET)

C (et son compagnon de beuverie C++) est spécialisé dans le sens où il colle de très près au hardware. Permet de la bidouille de bits, l'arithmétique de pointeurs, etc... Très efficace pour écrire un noyau ou bien un bout de code qui a besoin d'un maximum d'efficacité. Très *peu* efficace (si l'efficacité est le temps passé par le programmeur) pour écrire *rapidement* et sans bugs (débordements de buffers) une grosse appli, sophistiquée. Cf dixième loi de Greenspun : "tout programme C ou Fortran suffisamment compliqué contient une implémentation informelle, lente et archi-boguée de la moitié de CommonLisp". Dans ce sens, Lisp (et d'autres langages de "haut niveau") sont plus généralistes que C/C++. Certains ont dit également : "C combine la puissance de l'assembleur avec la portabilité de l'assembleur", mais c'est une _sorte_ de blague... Je peux en rajouter.

Dans la phrase de départ, j'avais compris spécialisé au sens de "attaché à un domaine particulier", en l'occurrence l'intelligence artificielle, et non "langage de bas niveau". Si on demande de citer un langage spécialisé pour l'AI, je ne pense pas que ce soit C qui arrive en tête (surtout comparé à prolog). Virgile
Langage de bas niveau pourrait remplacer avantageusement l'expression langage spécialisé en ce qui concerne le C/C++ GL 26 nov 2004 à 09:22 (CET)
Ok, mais si Lisp a été utilisé et développé par les gens qui font de l'IA (ils ont besoin du langage le plus flexible et expressif), ce n'est plus le cas depuis longtemps. D'un autre côté, C et C++ sont réellement utilisés en IA actuellement (combien de progs. Lisp ont été réécrits dans ces langages ? plein ! (quelle précision :)). Aurelienc

D'un autre côté le succès de C/C++ pour construire de grosses applis s'explique par deux facteurs : efficacité à une époque où le hardware était lent et sans RAM, et (depuis qu'Unix est populaire) plein de main-d'oeuvre familière avec cette famille de langages (Java/C# inclus ces jours-ci). Aurelienc

En effet par exemple, prenons le cas de Prolog, ce langage est déclaratif mais les programmeurs sont surtout habitués à des traits impératifs.. alors kan on sait faire un algorithme avec des boucles, c'est pas forcement evident en prolog (y en a pas !)... Par ailleurs Prolog certaines choses sont difficiles comme la capacité à gérer efficacement la mémoire ... Cependant je classe pas forcement Prolog dnas l'IA, c'est surtout un langage qui permet de modeliser tres facilement (normal c declaratif) mais aussi un des langages où on peut revenir en arrière dans le programme, ie remonter le temps logique tres facilement grâce au backtracking JoseBove


Le C et le C++ sont deux langages fondamentalement différents. La caractérisation de C explicitée plus haut ne s'applique donc pas à C++. Utilisateur:Mathias Gaunard


Prolog est considéré comme un langage propre à l'IA par sa syntaxe proche de la logique des prédicats ; il est donc, de ce fait un moteur d'inférence d'ordre 1. Son appartenance à la famille des langages déclaratifs n'a rien à voir ; LISP est à la fois dans la famille des langages impératifs et des langages fonctionnels. Par ailleurs, il existe un théorème liant Prolog et Lisp : A partir d'une fonction LISP d'arité n, nous pouvons toujours construire un prédicat PROLOG d'arité (n+1). Ce prédicat pourra avoir d'autres utilisations. Ticho 17 septembre 2006 à 17:20 (CEST)

[modifier] Extrai d'un boukin

Bonjour,

peut-être serez-vous intéressés par l’analyse ci-dessous ?, extraite d’un de mes ouvrages.

Cordialement

P. Moyne – www.paulmoyne.com ; www.apparitiondelavie.com ; www.evolutiondesespeces.com ; www.emergencedelhomme.com

Cerveau et ordinateur

Nombre de chercheurs s'échinent à comparer le cerveau et l'ordinateur comme si ce dernier était représentatif d'une intelligence artificielle.

Quid de cette intelligence ?



Toute structure destinée à traiter des informations numérisées,

qu'elle soit constituée de matière inerte comme l'ordinateur, ou de matière animée comme le cerveau,

se distingue, en première analyse, par deux spécificités majeures :

- sa capacité à réaliser en un minimum de temps, des suites corrélées de basculements binaires élémentaires  : "de 0 à 1" ou "de 1 à 0" (d'état non activé à état activé ou d'état activé à état non activé).

Comme unité de mesure et par commodité, nous retiendrons le gobes (10 puissance 9 opérations binaires élémentaires par seconde),

- sa mémoire quantifiée en vecteurs binaires de l'information, c'est à dire en bits représentatifs des nombres "0" ou "1" (des états non activé ou activé).


Choisissons l'activité des cellules photosensibles qui constituent le fond de l'oeil (ce sont les cônes et les bâtonnets de la rétine distribués autour de l'axe dit visuel).


Compte tenu de l'expérience acquise par les informaticiens dans la numérisation, la mémorisation et l'animation des images,

et imaginant la difficulté qu'il y a à saisir de manière subordonnée et cohérente, les caractères d'état des ondes lumineuses, de les différencier, in fine, de les recomposer pour former dans le domaine de l'abstraction et suivant des processus innés, les imageries virtuelles qui servent de référentiel,

(des processus beaucoup plus complexes que ceux résolus par les caméras numériques),

il n'est pas déraisonnable de supposer que l'analyse d'un point-image saisi par l'oeil nécessite au moins 10 traitements successifs par seconde,

chaque traitement impliquant lui-même, 100 opérations binaires élémentaires,

soit par cellule photosensible 1000 opérations binaires élémentaires par seconde.


Bien évidemment chaque cellule du corps est également un petit cerveau en interaction avec le cerveau central, de telle sorte qu'il y a correspondance entre les activités cellulaires et neuronales.

Notre corps étant vraisemblablement constitué de plus de 10.000 milliards de cellules manifestant un niveau opérationnel aussi intenses que celui des cônes et des bâtonnets de l'oeil,

le cerveau devrait ainsi permettre de réaliser plus de 10 millions de gobes.


Cette estimation nous semble cependant très en dessous de la réalité.

En effet, au niveau de la cellule se déroulent d'incessantes effectivités créatrices impliquant, elles aussi, des myriades d'extraordinaires opérations binaires ; songez aux effectivités créatrices inhérentes au processus immunitaire.

Rappelons qu'en quelques milliardièmes de seconde sont notamment imaginées, synthétisées, expérimentées et mises en oeuvre, en fonction d'expériences du vécu et dans le cadre d'un système unique de repères de valeur, diverses molécules destinées à combattre les agents pathogènes,

des molécules dont la structuration échappera longtemps encore, à l'entendement conscient.


D'autre part, croyez-vous que l'élaboration des concepts, des idées, des anticipations du devenir, ..., qui, eux aussi, meublent le(notre) domaine de l'abstraction, ne nécessitent aucun traitement d'information ?

Bien évidemment non.


Pour estimer le nombre de basculements binaires élémentaires traités par le cerveau, il convient donc de prendre en compte la dynamique la plus intériorisé de celui-ci.

C'est pourquoi nous préférons nous inspirer des travaux de John C Ecclès (excusez le nécessaire ésotérisme) :

"L'activité clé d'une synapse consiste en ce qu'une des vésicules synaptiques libère dans la fente intersynaptique la substance transmettrice qu'elle contient ... Il y a conservation du transmetteur synaptique par un processus qui à ce jour n'a pas encore été élucidé ... Une impulsion nerveuse envoie un grand nombre d'ions Ca2+ dans un bouton, des milliers de fois plus que les quatre ions Ca2+requis pour l'exocytose. Aussi l'insuffisance d'apport en ions Ca2+ n'est-elle pas la cause de la réaction de conservation que l'on observe invariablement dans le phénomène d'exocytose, où il ne s'en produit jamais plus d'une lorsqu'une impulsion pénètre dans le bouton..."...

"...l'action de l'intention mentale se résume à modifier la probabilité de l'émission vésiculaire des synapses activés" (cf. Comment la conscience contrôle le cerveau),


et nous en remettre aux estimations de Stuart Hammeroff :


"Si l'on fait l'hypothèse que les microtubes sont disposés en parallèle et espacés de 100 nanomètres, et que l'on prend en compte dans le volume cérébral ce qui correspond au cytoplasme neuronal, on arrive approximativement au nombre de 1014 microtubes dans le cerveau humain. Si chacun d'eux peut changer d'état toutes les 10-9 ou toutes les 10-11 seconde, l'ensemble des microtubes cérébraux présente donc une capacité de traitement de l'information d'environ 1023 à 1025 bits par seconde."


Le cerveau humain est ainsi capable d'assurer au moins " 10 puissance 14" à " 10 puissance 16" gobes.


Quant à ses capacités mémoire, elles sont corrélativement grandissimes, à la limite de l'entendement, quasiment sans commune mesure avec celles permises par les configurations électromagnétiques des ordinateurs,

et ce d'autant plus que le cerveau ne peut être dissocié de l'ensemble des cellules du corps (rappelons qu'une cellule comporte plus 1000 milliards d'atomes, ceux-ci étant les constituants de base des mémoires biologiques).


Pensez entre autres, aux myriades d'informations et de directives à effet biologique et à effet comportemental, mémorisées, par le biais d'atomes, sur l'ADN et l'ARN.


En conséquence, il nous semble utopique de chercher à quantifier l'équivalent mémoire de l'indissociable ensemble "cerveau - corps".

Nous estimons néanmoins qu'il est amplement supérieur à " 10 puissance 25" bits.



Qu 'en est-il en ce début du troisième millénaire, des capacités maximales de traitement de l'information, atteintes par l'ordinateur ?


A notre connaissance, le plus gros ordinateur actuel est le Cray-x1 fabriqué par la firme Cray Inc..

Sa puissance de calcul s'élève à 52.400 milliards d'opérations par seconde, 52.400 gobes (soit 52,4 téraflops en langage anglo-saxon).

Il comprend trois grosses armoires informatiques, un encombrement extrêmement réduit en regard des super ordinateurs classiques, certains occupant une surface équivalente à celle d'un terrain de football.

Pour 2010, la firme Cray s'est fixée comme objectif : un million de milliards d'opérations par seconde avec son "pétaflop", soit " 10 puissance 6" gobes.


Pour information,

- le premier super ordinateur conçu par Seymour Cray, en 1976, exécutait 160 millions d'opérations par seconde.

- "Earth Simulator" au japon, fabriqué par Nec, est un réseau de 640 ordinateurs capables de 40 téraflops (encombrement au sol : 65x50 mètres).

Conclusions

En comparant les performances respectives du super ordinateur actuellement en étude (" 10 puissance 6" gobes) avec celles de notre cerveau (" 10 puissance 14" à " 10 puissance 16" gobes), nous pouvons considérer que l'activité de ce dernier est équivalente à celle de plus de 100 millions de super ordinateurs de l'an 2010 !

La suprématie du cerveau humain apparaît dès lors incontestable, bien que l'homme ne puisse pas rivaliser avec les calculateurs électroniques dans nombre de domaines.

Autre remarque majeure confortant ce point de vue :

l'entité qui nous anime et qui, au sein du cerveau, initie les basculements des bits et juge du "sens", s'avère directement impliquée dans l'ensemble du corps, par le biais de micro logiciels associés aux cellules.

Les neurones, cellules singulières, ne permettent-ils pas à cette entité de se reconnaître sous le couvert du je (moi, ego, sujet, esprit) ?,

un fait essentiel que les tenants de l'intelligence artificielle se gardent de rappeler !


Ainsi, l'ordinateur sera, et à jamais, uniquement capable de stocker et de manipuler des bits dans le cadre des logiciels qui lui sont assignés, même si, demain, certaines structures de matière inerte qui le composent actuellement, sont remplacées par des structures biologiques.


Plus précisément, il demeurera toujours un outil n'ayant aucune maîtrise de lui-même, ne serait-ce que parce qu'il ne s'auto-pose jamais de problématiques émergeant au conscient, qu'il ne s'en auto-posera jamais, sans qu'un esprit, celui de l'homme, ne l'ait fait avant et pour lui,

et ce, en exprimant des intentionnalités par le biais de logiciels.


Chacun d'entre vous jugera du niveau d'intelligence de l'ordinateur et du contenu à donner au concept d'intelligence artificielle !

L'analyse est réductrice  : comparer des cellules à des opérations binaires est très simpliste, alors qu'il y a nombre de réactions chimiques sous-jacentes qui déterminent le comportement de chaque cellule. Cette analyse n'a rien de scientifique. J'ai l'impression qu'il s'agit d'une analyse réalisée sur le coin d'une table par n'importe qui, en prenant quelques statistiques sur les superordinateurs. À moins de preuve que ceci vient d'une étude sérieuse, je ne pense pas que ça mérite de se trouver dans une encyclopédie. D'autre part, il est évident qu'un ordinateur ne reproduira pas de sitôt à 100 % une réplique du cerveau humain en simulant l'ensemble des neurones. Un ordinateur a déjà de la difficulté à simuler un réseau neuronal de quelques centaines de neurones, et généralement ce sont des neurones énormément simplifiés. D'ailleurs, très peu de chercheurs poursuivent le but de reproduire l'humain. Pfv2 13 août 2005 à 22:20 (CEST)

[modifier] Arg

fatiguante cette page de discussion, ya moyen de tous netoyer pour repartir au calme ? ~ þaצo  16 juillet 2005 à 01:43 (CEST)

On pourrait archiver les discussions Pfv2 3 octobre 2005 à 18:31 (CEST)

[modifier] Bibliographie

J'ai tenté de mettre une bibliographie conséquente, mais en "compactant" un minimum. On veut encore mettre autre chose, et c'et pas un sujet qu'on va developper. Traroth | @ 11 août 2005 à 15:58 (CEST)

[modifier] Grand noms

J'ai changé "spécialistes de l'intelligence artificielle" par "grand noms de l'IA", car des spécialistes il y en a des milliers. Cette catégorie ne répertorie que les personnes célèbres. Pfv2 14 août 2005 à 00:46 (CEST)

juste une remarque sur ton message, il faut mieu le mettre en bas, c'est les us est coutumes de compléter la page en bas, on garde une espèce de chronologie. Sinon ta modification me semble bien. ~ þayo ♪♫ 14 août 2005 à 00:50 (CEST)
C'est fait! Merci du commentaire Pfv2 15 août 2005 à 03:19 (CEST) ;)

[modifier] Plan à revoir ?

L'article comporte beaucoup de matière, sans toutefois permettre une vision d'ensemble très claire.
Pourrait-on réfléchir à un plan plus léger en faisant apparaitre les notions importantes avec les principales difficultés, les axes de recherche et les principales techniques, les résultats, etc ? Seraient reportés en annexe les aspects plus documentaires, comme l'IA au cinéma.. --Mbzt 18 août 2005 à 19:37 (CEST)

Pour l'IA au cinéma ce n'est vas vraiment se que l'on peut qualifier d'envahissant, mais bon vue que ça resemble à une liste pourquoi ne pas la mettre séparée ; mais bon, le mieux c'est quand même qu'imaginer et de montrer un plan complet, peut être cette partie y trouvera sa place, et ce serai bien. Passé cette remarque, je n'ai pas les compétances pour réfléchir à un plan. ~ þayo ♪♫ 12 septembre 2005 à 10:31 (CEST)

[modifier] possibilités

Je ne comprends pas très bien la différence entre les deux paragraphes suivants :

  1. Impossible avec des machines manipulant des symboles comme les ordinateurs actuels, mais possible avec des systèmes dont l’organisation matérielle mimerait le fonctionnement du cerveau humain (comme des neurones artificiels).
    • Problème : Le système en question répondant exactement de la même façon que sa simulation sur ordinateur - toujours possible - au nom de quel principe leur assigner une différence ? (Thèse CPC de Bruno Marchal)
  2. Impossible avec les ordinateurs classiques manipulant des symboles, mais possible avec des réseaux de neurones formels (dont l'organisation logique et non matérielle s'inspire des neurones biologiques).
    • Problème : le même que pour le point précédent.

Quelqu'un pourrait-il m'éclaircir?

Je suis d'accord, il n'y a pas vraiment de différence. J'ai supprimé le deuxième paragraphe et cité "réseaux de neurones" dans le premier. Plyd /!\ 5 janvier 2006 à 21:30 (CET)
J'ai rétabli et reformulé le paragraphe supprimé pour plus de clarté. En fait, ce paragraphe fait allusion à des circuits électroniques spécialisés reproduisant le fonctionnement des neurones, et non aux réseaux de neurones formels, simulés par voie logicielle. - Almak 7 janvier 2006 à 19:39 (CET)
La puce ZISC d'IBM (puce comportant un peu plus d'une centaine de neurones formels) n'était-elle pas mentionnée dans une version précédente de l'article ? A-t-elle été sabrée elle aussi, au moment même où cette puce n'est plus fabriquée et où sa documentation ne sera plus accessible par le Net ? Ce n'est plus une encyclopédie, ça devient le désert de Gobi, ce truc ! 81.65.26.7 10 décembre 2006 à 15:32 (CET)

[modifier] Bizarre bizarre

Je trouve bizarre de lancer des affirmations dans l'introduction (comme Un pilote automatique d'avion, un programme joueur d'échecs ne sont plus aujourd'hui de l'IA), basées sur une définition de l'IA, alors que la première section annonce qu'il y a plusieurs définitions. Personnellement c'est la première fois que j'entends dire qu'une IA peut ne plus en être une 5 ou 10 ans plus tard. Et je trouve ça plutot surprenant. GôTô ¬¬ 9 janvier 2006 à 13:02 (CET) 193.50.104.77 28 novembre 2006 à 18:14 (CET)Oui, tout à fait d'accord. Il est même faux de dire que les échecs, ce n'est plus de l'IA. Ca n'en est plus pour certains, mais pas pour tout le monde. Ma nouvelle proposition pour définir l'IA en tient compte.

Il s'agit simplement de la conséquence immédiate de la définition de Minsky « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». Dès lors qu'une tâche est accomplie par une machine de façon aussi satisfaisante que par un être humain, la tâche correspondance cesse aussitôt de se rapporter à la définition de Minsky. Il insistait bien là-dessus dans son cours. Est-ce si difficile à comprendre ???
"Ta" définition de l'IA n'a rien à faire dans une encyclopédie, pas plus que n'importe quelle idée personnelle. Utilise ton blog, pour cela. 81.65.26.7 10 décembre 2006 à 15:36 (CET)

[modifier] Lien externe mort

Bonjour,

Pendant plusieurs vérifications automatiques, un lien était indisponible. Merci de vérifier si il est bien indisponible et de le remplacer par une version archivée par Internet Archive si c'est le cas. Vous pouvez avoir plus d'informations sur la manière de faire ceci ici. Les erreurs rapportées sont :

Eskimbot 31 janvier 2006 à 05:04 (CET)

[modifier] Lien externe mort

Bonjour,

Pendant plusieurs vérifications automatiques, un lien était indisponible. Merci de vérifier si il est bien indisponible et de le remplacer par une version archivée par Internet Archive si c'est le cas. Vous pouvez avoir plus d'informations sur la manière de faire ceci ici. Les erreurs rapportées sont :

Eskimbot 31 janvier 2006 à 05:09 (CET)

[modifier] Lien externe mort

Bonjour,

Pendant plusieurs vérifications automatiques, un lien était indisponible. Merci de vérifier si il est bien indisponible et de le remplacer par une version archivée par Internet Archive si c'est le cas. Vous pouvez avoir plus d'informations sur la manière de faire ceci ici. Les erreurs rapportées sont :

Eskimbot 31 janvier 2006 à 05:10 (CET)

[modifier] Déplacé depuis l'article

Le "calcul" consistant à multiplier le nombre de neurones par leur fréquence de fonctionnement (environ 100 Hz) ne tient pas debout : tous ne sont pas actifs en même temps, à tout le moins. Je propose de supprimer ce type de remarque qui est archi-fausse et n'apporte rien.

Tous ne sont pas actifs en même temps ? Et comment fait-on donc pour désactiver un neurone ? :-D Le calcul a le mérite de préciser les otrdres de grandeur en présence. Si c'est par un majorant, c'est encore mieux. 81.65.26.7 10 décembre 2006 à 15:40 (CET)

81.249.105.112

il est vrai que cette remarque est une approximation très très grossière de plus est-il raisonnable d'estimer l'"intelligence" simplement à partir du nombre d'opération ? la mémoire on en fait quoi ?

ce qui est écrit maintenant est ... douteux ... mais c'est une question très interessante je trouve.

je suis d'accord que la comparaison est difficile (voire toujours fausse), mais dans le fond une telle comparaison est intéressante. Peut-être faut-il tenter la reformuler. Plyd /!\ 5 avril 2006 à 11:27 (CEST)
ps: n'hésitez pas à vous créer un compte anonyme plutôt que de rester localisé par IP ;)

Il n'était pas vraiment question dans cette article de dire que les ordinateurs avaient une intélligence comparable au humains, mais bien de dire, qu'aujourd'hui nous avons des ordinateurs dont la puissance de calcul dépasse le maximum physiologique que pourra jamais fournir un cerveau humain. Donc, nous dépassons l'extremum de l'intelligence humaine. Pour ce qui est de la mémoire, l'ordinateur peut avoir autant de disque dur qu'il est physiquement possible, les tailles des bases de données dépasse le pétabyte. De plus, nous pouvons considéré que tout les ordinateurs sont interconnecter et peuvent donc utilisé des informations des autres... Dans un sens ou dans l'autre nous sommes dépasser d'années lumières...

Maxime Lavigne

[modifier] Pertinence d'Écoles françaises enseignant l'IA

Bonjour, est-il vraiment nécessaire de faire une liste de toutes les écoles enseignant l'IA sachant que la plupart des écoles d'ingénieur proposant une formation en informatique contiennent un cours d'IA, sachant que probablement toutes les universités faisant de l'informatique font de l'IA ? Bref, si on les liste toutes, on en aura vraiment beaucoup. Rien que pour mon coin (Toulouse centre de Rangueil), on peut rajouter l'Enset, Supaero, l'Enac, l'université Paul Sabatier... Je voudrai pas provoquer des colères en supprimant cette partie unilatéralement. CommeCeci 24 mai 2006 à 09:56 (CEST)

je suis d'accord. Toutes les facs de france enseignent l'IA, et la la majorité des écoles d'info et de signal aussi, même si ce n'est pas toujours sous la même forme. je propose la suppression de cette liste. Sylenius 5 juin 2006 à 18:50 (CEST)
Je pense que cette liste est censée lister des écoles n'ont pas qui offre "un cours d'IA", mais tout un cursus orienté IA, telle qu'une spécialisation d'ingénierie ou un DEA.
Maintenant, est-ce que cette liste à lieu d'être (en tous cas dans cette article), je n'ai pas d'avis vraiment tranché. Eden 5 juin 2006 à 19:37 (CEST)
Fait j'ai supprimé le paragraphe. Peut-être faut-il en faire une catégorie, mais là aussi, ça va être limite, les écoles qui offrent une option de quelques heures en IA et celles qui proposent des spécialités qui ne font que ça. M'enfin, ça n'a pas d'intérêt à mon goût sur cette page, et le nombre de liens externes est déjà trop important. Plyd /!\ 5 juin 2006 à 23:29 (CEST)
Moui, si on commence à classer les écoles par ce qu'elles enseignent précisément, on a pas fini. Eden 7 juin 2006 à 15:44 (CEST)

[modifier] Ajout d'une rubrique sur les logiciels utilisés dans le domaine de l'IA

Je pense que l'article manque d'un élément à savoir faire une liste de quelques logiciels couramment utilisé dans pour la conception des programmes dans le domaine de l'IA

dans ou pour ? Dans les 2 cas, plutôt bof, ça risque encore de devenir une longue liste inintéressante de logiciels inconnus (voire commerciaux) comme wikipédia en a le secret... Argumente un peu si tu as une idée précise derrière la tête Sylenius 7 juin 2006 à 16:34 (CEST)
J'ajouterais que ces logiciels auraient plus leur place dans les articles spécifiques dédiés à la technique qui les concerne que dans un article généraliste qui en couvre des dizaines. Eden 7 juin 2006 à 16:46 (CEST)
Un excellent développement existait dans une version antérieure de l'article, qui listait une demi-douzaine de tels logiciels dont MYCIN/EMYCIN et GPS (General Problem Solver), ainsi que leurs résultats (dont une démonstration originale des propriétés d'un triangle isocèle trouvée (par GPS ?) dans les années 60); il y était fait mention aussi du programme de dames anglaises d'Arthur Samuel, qui apprenait de ses erreurs. Je ne sais pas qui a eu l'insconcience de sabrer tout cela et ne chercherai même pas à le savoir. Wikipédia est clairement victime d'une processus d'augmentation d'entropie :-( 81.65.26.7 10 décembre 2006 à 15:28 (CET)

[modifier] Incohérence

Je trouve que la première définition de l'intelligence artificielle forte - qui réinjecte ses erreurs dans son comportement - est incohérente avec la définition moins précise du paragraphe juste en dessous. A moins que l'on suppose que la conscience de soi est nécéssairement lié à un système d'apprentissage ...? Mais ce n'est plus le même débat. Par contre l'idée de simuler des sentiments, qui relèvent du domaine hormonal, n'a certainement aucun rapport avec la première définition. AS

[modifier] Auteurs de SF traitant de l'IA

Concernant certains auteurs de SF ayant approché, de manière conceptuelle L'IA (Comment une machine devient consciente...),il serait bon de citer Greg Bear dans "La Reine des Anges" (Queen's Angel) parut en 1990 suivit de "Oblique" (Slant) en 1997.

[modifier] Massacre des liens sur l'IA forte

Tous les liens facuels et toutes les considérations précises sur l'IA forte ont à ce que je vois été sabrées de l'article (en particulier le lien sur le remarquable article du professeur Irving John Good) pour être remplacés par des propos de café du commerce, un peu comme si après que l'article ait été élaboré par des ingénieurs des philosophes étaient passés pour réduire l'article à ce qu'ils voulaient en voir, et que pas un cheveu ne dépasse.

Cette attitude est particulièrement contre-productive. Que cherche-t-on à faire ? Ramener la Wik à un livre pour enfants ? 81.65.26.7 10 décembre 2006 à 15:44 (CET)

Bonjour. Je vois toujours le lien vers le professeur Irving John Good.
Cet article est la cible de nombreux spam de liens et il n'est pas toujours facile pour les patrouilleurs qui ne connaissent pas le sujet de savoir lesquels conserver ou non.
En général, je conseille de mettre les références dans l'article, entre les balises <ref>Référence / lien</ref>, qui ajoute un 1 ou 2 avec une note de bas de page.
Par ailleurs, si vous tenez à une ancienne version qui vous semble beaucoup plus pertinente, je vous encourage vivement à parcourir l'historique et à rétablir une meilleure version (ou récupérer un paragraphe, afin de ne pas écraser d'autres mises à jour pertinentes).
Je ne suis pas certain de pouvoir vous aider, mes compétences étant limitées dans le domaine, mais si je peux vous aider, n'hésitez pas à me demander.
Cordialement, Plyd /!\ 10 décembre 2006 à 16:09 (CET)

[modifier] Suppression d'une information importante

Il était naguère précisé dans l'article une chose importante : la définition même de l'intelligence artificielle par je ne sais plus quel professeur (réalisation par la machine de taches jusqu'alors mieux accomplies par l'intelligence humaine - IA faible) fait que dès lors qu'un objectif d'IA faible est atteint, il cesse de faire partie de l'IA faible pour devenir une simple application informatique.

Cela allait dans le même sens qu'une déclaration moins spectaculaire de Philippe Kahn déclarant : "Aujourd'hui, on programme en C ou en Pascal; demain, on programmera en Prolog et plus plersonne n'aura l'idée de nommer cels de l'intelligence artificielle : ce seront simplement des applications combinatoires programmées avec un langage combinatoire". Il est vraiment dommage d'avoir exclu cette information éclairante de l'article, car elle devient évidente une fois énoncée et contribuait à démythifier utilement l'IA. 81.65.26.17 1 mars 2007 à 12:08 (CET)

[modifier] Utiliser le terme agent ?

Je n'y connaît pas grand chose, et je n'est pas prît le courage de tous comprendre sur cette page, mais il me semble que les logiciels utilisés pour "l'intelligence artificielle " s'appellent des agents. Prière de me laisser un petit mot sur ma page si ce n'est pas le cas, et même si c'est le cas, pour me faire comprendre. (Pour ceux et celles qui ont compris!!!) Merci. Paul99 8 juillet 2007 à 18:31 (CEST)

Les logiciels utilisés en IA ne sont pas nécessairement des agents. Un agent est une entité logocielle autonome, pro-active et fortement communiquante. L'approche par systèmes multi-agents n'est qu'une approche parmi d'autres, même si elle est particulièrement féconde et mériterait d'être davantage détaillée dans cet article.
Il me semble que vous faites la confusion entre « logiciel » et « processus ». Ce sont les processus qui sont des agents ou qui agissent comme tels. Pierre de Lyon (d) 29 février 2008 à 14:50 (CET)

[modifier] Améliorer l'article

Il me semble nécessaire d'améliorer cet article en mettant l'accent sur les recherches récentes (nouvelle IA, algorithmes génétiques, systèmes multi-agents massifs) et découvertes des sciences cognitives et des neurosciences (Damasio). Le débat sur la faisabilité de l'IA est présenté de manière simpliste, avec des arguments dépassés ou dépourvus de sens (ex. la Chambre chinoise).

oui, donc Wikipédia:N'hésitez pas ! Sylenius 7 septembre 2007 à 20:58 (CEST)
Il me semble que "dépassé" et "dépourvu de sens" est également une manière simpliste de traiter ces arguments. --Jean-Christophe BENOIST 7 septembre 2007 à 21:15 (CEST)

[modifier] Intelligence Artificielle ?

Au stade où la machine parvient d'elle même à comprendre qu'elle est une machine, pourquoi parler d'"intelligence artificielle" alors qu'il s'agit simplement d'intelligence, n'est ce pas même peut être une forme de racisme ? de plus on parle de support biologique et mécanique. L'être hummain n'est-il pas juste une machine hautement sophistiquée ? car biologique ou mécanique la pièce de base est la même : l'atome

[modifier] Proposition de sélection de cet article pour Portail:Informatique

Cet article est proposé pour faire partie de la sélection Wikipédia:Sélection/Informatique. Cette page permet d'afficher aléatoirement un article parmis la sélection sur Portail:Informatique. Les articles sélectionnés représentent la vitrine du projet.

Vous êtes invités à vous exprimer sur la page suivante : Wikipédia:Sélection/Informatique/Intelligence artificielle. Toutes les remarques d'amélioration sont les bienvenues, mais notez que puisque c'est un vote interne au projet, seuls les votes des participants déjà inscrits sur le projet informatique seront pris en compte. --T (d) 11 décembre 2007 à 13:27 (CET)

[modifier] Contribuez à l'article en reconstruction

Je vous propose de ne plus modifier l'article principal mais la version dite version_collective. Pierre de Lyon (d) 11 mars 2008 à 15:55 (CET)

[modifier] Ménage

ça gène quelqu'un si je mets l'ensemble des discussions avec jeanPhi sur cete page dans une boite déroulante ? et que je propose Discuter:Intelligence artificielle/Brouillon en SI ? Sylenius (d) 11 mars 2008 à 22:32 (CET)

Ok pour la boîte déroulante, quant à la SI je préfèrerai que cette version reste archivée et accessible, on sait jamais... peut-être qu'il y a des trucs intéressants à récupérer Sourire. Petit Djul (d) 11 mars 2008 à 22:37 (CET)
Il faut garder le brouillon, pour référence par rapport à la discussion. --Jean-Christophe BENOIST (d) 11 mars 2008 à 23:36 (CET)
OK Pierre de Lyon (d) 12 mars 2008 à 10:30 (CET)

[modifier] Deep Blue

Bonjour,

La photo de Deep Blue est-elle réellement pertinente ? Je ne vois pas du tout de lien entre l'IA et la façon dont fonctionnent les programmes d'échecs actuels (et Deep Blue en particulier) qui doivent tout à des algorithmes simples pour évaluer la position et à la force brute d'un générateur de coups. Sur la FAQ du match Kasparov-Deep Blue, on précise même explicitement qu'il n'y a pas de lien entre Deep Blue et l'IA :

Does Deep Blue use artificial intelligence?

The short answer is "no." Earlier computer designs that tried to mimic human thinking weren't very good at it. No formula exists for intuition. So Deep Blue's designers have gone "back to the future." Deep Blue relies more on computational power and a simpler search and evaluation function.

The long answer is "no." "Artificial Intelligence" is more successful in science fiction than it is here on earth, and you don't have to be Isaac Asimov to know why it's hard to design a machine to mimic a process we don't understand very well to begin with. How we think is a question without an answer. Deep Blue could never be a HAL-2000 if it tried. Nor would it occur to Deep Blue to "try."

Cette association entre les logiciels qui jouent aux échecs et l'IA ne peut que perpétuer une conception de l'IA qui n'est pas judicieuse. — mro [d] 2 avril 2008 à 12:39 (CEST)

J'aurais tendance à être tout à fait d'accord avec toi, mais ce n'est que mon avis. Si je regarde maintenant mes sources (notamment le Russell, S. et Norvig, P., Artificial Intelligence: A Modern Approach (2nd ed.), Prentice Hall, 2003, 932 p. (ISBN 0-13-790395-2)), les processus visant à reproduire un comportement humain dans un domaine spécialisé (ce qui est le cas des échecs) est généralement considéré comme de l'IA. Et beaucoup de recherches en IA (voire la quasi-totalité) concernent un domaine spécialisé.
Mais quoi qu'il en soit, je suis d'accord que ce n'est pas la meilleure illustration possible (mais comment illustrer autrement ?), même si - de fait - elle n'est pas totalement hors-sujet. --Jean-Christophe BENOIST (d) 3 avril 2008 à 14:06 (CEST)

[modifier] Ne pas partir bille en tête sur les détails au risque de noyer le lecteur

L'article dans son état actuel (22 mai 2008) commence à détailler ce qu'est l'IA forte avant même d'avoir situé la différence qui existe entre IA faible et IA forte. Cela ne peut que déconcerter le lecteur non spécialiste. Un plan plus clair pourrait être :

  • IA faible et IA forte (présentation générale des deux approches)
    • IA faible (détails plus poussés)
    • IA forte (détails plus poussés)

Commencer par l'IA faible est plus honnête, parce que c'est la seule que nous sachions vraiment faire. C'est plus pédagogique aussi, car des exemples pris dans le quotidien permettent d'accrocher l'attention du lecteur.

Je devrais le faire moi-même, mais m'abstiens pour deux raisons :

  1. L'article possède un bandeau de remaniement en cours
  2. Cette approche était me semble-t-il celle utilisée dans une de ses versions antérieures. L'article "progresserait" donc apparemment dans le mauvais sens (où sont passés d'ailleurs les exemples relatifs à GPS - General Problem Solver, MYCIN/EMYCIN, etc. ? Je ne fais que passer en coup de vent et ai peut-être mal cherché, mais il serait logique de les voir au moins dans le sommaire :-( ).

212.198.156.176 (d) 23 mai 2008 à 16:01 (CEST)