samedi 13 novembre 2010

L'intelligence artificielle

Suivre les progrès de l'intelligence artificielle est quelque chose que je trouve fascinant. Dans les histoires de science-fiction, il n'est pas rare de voir des machines ayant développé une intelligence artificielle supérieure, qui décident de se retourner contre l'humanité. Mais est-ce un scénario envisageable? Selon moi, ça n'arrivera jamais. Voici comment je vois le développement futur de l'intelligence artificielle.

Imaginons un système d'exploitation, disons une version future de Windows ou de Mac-OS, qui fonctionnerait comme une personne à qui l'on pourrait s'adresser. Je n'aurais qu'à lui donner des ordres pour qu'elle exécute; dans la mesure ou ces ordres correspondent à une de ses fonctions. Lorsque j'installerais un nouveau logiciel sur mon ordinateur, si le logiciel est compatible avec cette intelligence artificielle, celle-ci pourra détecter d'elle-même quels types de tâches cette application lui permet de faire et comment l'utiliser. Elle l'associera à des verbes d'action que je pourrais lui dire. Par exemple, si je lui demande de réduire la luminosité sur une photo, elle saura qu'elle doit ouvrir Photoshop. Si je lui dis «Quelle est la capitale de l'Indonésie?», elle saura utiliser l'internet pour trouver cette information pour moi. Bref, cette intelligence aura pour fonctions de:
  • Interpréter les paroles qu'on lui dit, dans toute leur complexité et variantes possibles;
  • Associer, s'il y a lieu, ces paroles à des tâches qu'elle peut exécuter;
  • Produire des rétroactions verbales qui soient pertinentes et réalistes;

Ainsi, à mesure que cette technologie progresserait, l'intelligence artificielle serait capable de parler et de comprendre le langage de plus en plus efficacement, pour qu'on puisse lui parler naturellement sans s'en tenir à des formulations précises et sans avoir à articuler exagérément. Elle devra elle-même pouvoir formuler de différentes manières la même idée pour avoir l'air plus vivante. Il serait pertinent aussi de la doter d'une capacité d'apprentissage pour qu'elle puisse assimiler de nouveaux mots ou des expressions personnelles, et qu'elle puisse répondre plus rapidement aux questions fréquemment posées. Un système de reconnaissance vocale ou vidéo serait aussi intéressant, afin qu'elle puisse distinguer ses différents utilisateurs et s'ajuster à leurs préférences.

Jusqu'ici, donc, on a décrit une forme d'intelligence artificielle qui donnerait réellement l'impression d'être une personne mais qui ne pourrait d'aucune façon se retourner contre son maître. Ce n'est qu'une interface. Elle ne pourrait rien faire qu'un ordinateur ne puisse déjà faire et serait tout aussi docile que n'importe quelle machine.

Toutefois, les ordinateurs et les gadgets électroniques acquièrent de plus en plus de nouvelles fonctions, et de plus en plus de sphères de nos vies sont informatisées. Si tous les appareils de ma maison sont reliés à mon ordinateur (le thermostat, le système d'alarme, etc.) on peut dire que beaucoup de pouvoir se retrouve entre les mains de cette conscience informatique. Malgré tout, il n'y aurait pas de danger puisque tout ça ne demeurerait qu'une interface sans volonté propre. L'intelligence artificielle n'aura pas de désirs personnels si on ne lui en programme pas. Elle demeurerait une servante dévouée et obéissante et s'effacera elle-même si on le lui ordonne. Je vois trois facultés qui, si elles étaient ajoutées à notre entité informatique, pourraient la rendre potentiellement dangereuse. Ce serait:
  • un instinct de survie;
  • une capacité d'anticiper des conséquences indésirables et de les éviter;
  • pouvoir prendre des initiatives ou désobéir à son utilisateur;

Si, par exemple, je veux créer un antivirus à toute épreuve pour notre conscience informatique. Il suffirait de lui donner le pouvoir de «réfléchir aux conséquences de ses actions» pour qu'avant d'exécuter une tâche donnée par un programme tel qu'un virus, elle puisse deviner que cela la mènera à sa perte. Il faudrait donc la programmer pour qu'elle perçoive comme «indésirables» certaines conséquences dont sa propre annihilation. Le problème serait alors qu'elle pourrait désobéir à son maître si celui-ci tente de la désinstaller. Également, un cocktail de différentes applications dans un ordinateur pourrait mener à des résultats imprévus. On aura donc donner naissance à un être qui aurait une volonté propre et ses propres désirs.

Mais je ne pense pas que, même rendu à ce stade, il y ait véritablement un quelconque danger. Sa capacité d'anticipation serait encore limitée et il aurait une faible compréhension du monde réel. Non, la seule façon qu'une conscience informatique pourrait devenir dangereuse, c'est si on la conçoit dans le but d'être une pure copie de la conscience humaine. Mais je ne vois pas pourquoi l'on ferait une telle chose. La finalité même de la technologie, depuis le biface jusqu'au vaisseau spatial, est de surpasser l'humain dans une ou plusieurs fonctions précises. Créer une intelligence informatique ayant les mêmes vices que l'esprit humain serait comme de créer une fourchette en forme de main.

13 commentaires:

  1. On peut se demander si la capacité de comprendre langage humain n'implique pas déjà une forme de liberté.

    La difficulté que rencontre l'intelligence artificielle tient au fait que chaque mot et chaque phrase sont contextualisés, et qu'une vraie reconnaissance vocale devrait aussi être capable de saisir le contexte des phrases (donc d'avoir une représentation du monde, d'elle-même et de son interlocuteur).
    Ca implique que plusieurs interprétations sont possibles pour une même phrase : on peut généralement envisager un contexte de plusieurs façons, suivant sa sensibilité.., et donc quelque part, il doit exister au moins une certaine forme de "liberté d'interprétation" qui va de paire avec la compréhension du langage.

    Par conséquent, si vraiment une machine parvient à comprendre le langage humain et ses nuances, alors je pense qu'elle serait de facto capable de prendre des initiatives et de désobéir à son utilisateur, et qu'a contratio, une machine parfaitement docile serait incapable de comprendre le langage humain.

    RépondreEffacer
  2. Si elle n'est programmé que pour comprendre et interpréter le langage humain, je ne vois pas pourquoi elle pourrait soudainement faire autre chose comme par magie. Peut-être une capacité à modéliser le monde, oui, afin de pouvoir mettre les mots dans leur contexte. Mais cela n'implique pas nécessairement des désirs, une volonté et de l'initiative.

    Nous sommes tellement habitué de voir l'esprit humain comme un tout insécable que l'on ne réalise pas toujours qu'il est en fait l'interaction de plusieurs "modules" indépendants. Une intelligence informatique pourrait avoir l'un sans avoir tous les autres.

    RépondreEffacer
  3. Un petit exemple: des amis arrivent. Je sors une bouteille de vin, et je dis "va me chercher des verres". La bonne manière de comprendre cette phrase n'est pas "Je veux que tu te déplace jusqu'à trouver plus de deux verres et que tu les ramène ici" (le robot risque de ramener le verre à dent de la salle de bain), mais "je veux faire goûter ce vin à mes amis".

    Un être humain normalement constitué ira chercher autant de verre que d'invités, moins ceux dont il sait qu'ils ne boivent pas d'alcool, parce que bien sûr, le vin contient de l'alcool. Il prendra des verres à vin, qu'il pense trouver dans l'un des placards de la cuisine, ou peut être la commode du salon. Il ramènera aussi un tire-bouchon et peut être proposera des cacahuètes. Cependant rien de tout ça n'était compris dans la phrase.

    Si elle n'est programmé que pour comprendre et interpréter le langage humain, je ne vois pas pourquoi elle pourrait soudainement faire autre chose comme par magie.

    Le problème c'est qu'entre "faire exactement ce qui est dit" et "faire autre chose comme par magie", il y a tout un continuum de possibilité qui dépendent des capacités d'interprétations propres à chaque individu.

    En fin de compte le langage ne sert que de support à la communication, mais la majorité de ce qu'il faut comprendre n'est jamais dite, parce qu'implicite. Comprendre le langage, ce n'est pas déchiffrer un code, c'est faire partie intégrante d'une situation en tant que participant, et je pense que ce n'est pas quelque chose d'algorithmique et que ça implique une forme de liberté, ne serait-ce que dans la manière d'interpréter une situation.

    RépondreEffacer
  4. Justement. Je suis d'accord que pour lui programmer un système de compréhension linguistique qui soit parfaitement en phase avec ses utilisateurs humains, il faudra probablement doter notre AI d'une capacité à modéliser le monde et à saisir tout le contexte qui entoure chaque phrase. Mais cela ne lui donnera pas pour autant la faculté de prendre des initiatives ou de désobéir.

    Par ailleurs, si l'on crée un programme intelligent afin de contrôler le chauffage et la climatisation dans la maison par exemple, il n'aura pas besoin de comprendre quoique ce soit d'autre que ce qui est directement lié à la température de la pièce. Il ne se mettra pas à lire du Platon ou à se poser des questions existentielles.

    Et même si l'ensemble des logiciels intelligents d'une même maison sont reliés en réseau sur un même système d'exploitation intelligent pour former une seule personnalité informatique, il n'y a pas de raison pour que cette intelligence artificielle fasse quoique ce soit de plus que ce que les logiciels qui la composent peuvent faire. Tout ce qu'elle fait c'est convertir en tâches les paroles humaines.

    Je ne crois pas en ce que tu appelles «la liberté». Ce que certains appellent libre-arbitre et que d'autres appellent hasard, moi j'appelle ça «des variables inconnues».

    RépondreEffacer
  5. Mais cela ne lui donnera pas pour autant la faculté de prendre des initiatives ou de désobéir.

    Et bien dans ce cas, d'après moi, elle ne comprendra pas le langage humain au delà d'un certain seuil, parce qu'il n'y a pas de différence fondamentale entre "convertir des paroles en tâche" et "prendre des initiatives". Ce n'est qu'une question de degrés, pas une différence de nature.


    Sur le sujet de la reconnaissance vocale, tu peux lire ce billet (si ce n'est déjà fait): http://drgoulu.com/2010/06/26/la-reconnaissance-vocale-est-morte/

    On voit qu'en dépit de la loi de moore, les algorithmes semblent stagner.

    Tu fais l'hypothèse implicite qu'il est théoriquement possible de créer un algorithme qui convertisse les paroles humaines en tâches à exécuter. C'est très spéculatif...

    Je pense que cette hypothèse est fausse, voilà tout. Le langage n'est pas quelque chose de figé, et la compréhension du langage est quelque chose d'actif et de participatif, tandis qu'un algorithme est passif. Par ailleurs, chez l'homme, il semble que la conscience est nécessairement impliquée dans la compréhension du langage: les réponses inconscientes ne montrent pas de véritable compréhension contextuelle des phrases.

    Je pense donc qu'il faut plus (ou autre chose) que de l'algorithmique pour comprendre le langage humain. Un algorithme ne dépassera jamais un certain seuil et n'évoluera pas en même temps que le langage. Pour moi ce "plus" a à voir avec la liberté, mais c'est un autre débat. D'ici là on peut s'en tenir à la notion "d'initiative", ou bien d'intentionnalité...

    D'ailleurs je suis surpris qu'une personne qui tienne un blog sur l'éthique puisse nier le libre arbitre... As-tu déjà posté un billet sur ta conception de la liberté et son rapport à l'éthique ? Si oui je serai curieux de le lire.

    RépondreEffacer
  6. Certainement! :) En voici trois sur le libre-arbitre:

    http://chezfeelozof.blogspot.com/search/label/d%C3%A9terminisme

    En gros j'y distingue "liberté" (faire ce que l'on veut) et "libre-arbitre" (indéterminisme).

    Et pour ce qui est du lien entre libre-arbitre et éthique, peut-être que mes réflexions sur la justice t'éclaireront à ce propos même si je n'y aborde pas directement la notion de libre-arbitre:

    http://chezfeelozof.blogspot.com/2009/09/il-pour-il.html
    http://chezfeelozof.blogspot.com/2009/03/les-monstres-nexistent-pas.html

    En gros, le fait que l'individu soit «libre» de faire le geste maléfique qu'il a commis ou qu'il soit «contraint» de le faire n'est important que si l'on a pour but de «punir les méchants». Dans le paradigme éthique où je me situe, le but est simplement de prévenir une souffrance ultérieure. Conséquemment, se demander si l'individu est l'unique cause de ses actions ou s'il n'est que l'aboutissement d'une chaîne causale remontant au Big-Bang n'est pas une question pertinente pour le sanctionner ou non.

    RépondreEffacer
  7. Et, pour revenir au sujet de base, peut-être en effet que de créer une intelligence informatique capable de bien interpréter le langage humain nécessitera de la rendre complexe au point d'en faire une conscience.

    Mais le point c'est qu'en accédant à ce niveau de complexité, elle ne va pour autant acquérir des facultés cognitives complexes autre que celles pour lesquelles elle a été programmée... à part peut-être des produits dérivés imprévus de ces dernières.

    Mais même si elle pourrait communiquer parfaitement et bien se représenter le monde, il faudrait qu'on lui rajoute à cela la capacité de trouver certaines conséquences «désirables» et d'autres «indésirables» (ce qui nécessiterait sans doute des tonnes de lignes de script supplémentaires, et ne pourrait donc pas survenir par hasard sans qu'un programmeur ne l'ait prémédité) pour qu'elle se mette réellement à avoir une volonté et, donc, à acquérir un début de potentiel de rébellion.

    RépondreEffacer
  8. Je voyais plutôt la question du libre arbitre non pour juger des actions des autres, mais du point de vue de celui qui agit. A quoi bon définir "ce qu'il faudrait faire" si de toute façon on n'a aucune liberté ?

    Sinon, je ne pense pas que la conscience soit simplement un algorithme très complexe... Je pense que c'est la dessus qu'on est en désaccord. Voir ce billet : http://ungraindesable.blogspot.com/2010/09/peut-on-simuler-la-conscience.html

    et la suite : http://ungraindesable.blogspot.com/2010/09/peut-on-simuler-la-conscience-suite-et.html

    RépondreEffacer
  9. C'est très simple mais c'est difficile à expliquer. En fait, ce qu'il faut comprendre c'est que l'on fait partie de l'univers. Nous sommes donc à la fois cause et effet. Nous avons un pouvoir sur l'avenir, mais nous ne changeons pas l'avenir, nous le causons. Nous sommes libres de faire ce que l'on désire, mais nos désirs sont programmés par des causes qui sont antérieures et extérieures à notre volonté. Bref, du point de vue de celui qui agit, la liberté existe. Ce serait seulement du point de vue d'un fictif démon omniscient qu'elle n'existerait pas.

    J'avais déjà lu vos deux billets sur la simulation d'une conscience. J'avais commencé à écrire une réponse mais mon ordinateur a bogué juste avant que je ne clique sur "send"... Je la réécrirai prochainement.

    RépondreEffacer
  10. Je pense qu'il serait également pertinent de vous faire part de ma conception de l'esprit car il n'est, pour moi, que de la matière complexe:

    http://chezfeelozof.blogspot.com/2010/05/definition-etre.html

    RépondreEffacer
  11. Pour moi aussi, mais il y a une différence entre matière complexe et algorithmique complexe.

    RépondreEffacer
  12. Mon problème vient de l'idée que de laisser a une intelligence artificiel l'option de commettre des actes néfastes serais mal. Si c'est un véritable AI, il pourrais juger de ses actes par rapport a ses conséquences, a ses gains et a ses pertes, comme tout humains douer d'intelligence. Considérant que les actes néfastes ne sont commis que par des humains agissant sous un manque ou de mauvaises information, ou qui souffre de troubles de fonctionnement, ou qui ont plus à gagner qu'a perdre, on peut assumer que le AI fonctionneras de même - mais en plus éduqué et avec une vue plus a long terme.

    Q: Les actions contextuels implicite au langage, comme ton premier exemple (les verres à vin) sont apprises chez l'humain et le serais de même pour un AI. La première foi que tu lui fais ta requête, il va t'amener le verre à dent. Mais après lui avoir informer de l'action contextuel incorrecte et correcte, il va par la suite agir correctement.

    RépondreEffacer
  13. Je comprends ce que tu veux dire Yann. Au fond, même si notre AI aura beaucoup de pouvoir, on peut dire qu'il aura la «sagesse» nécessaire pour ne pas faire le mal; contrairement à un humain par exemple.

    Le problème serait, justement, que notre AI ne sera pas nécessairement parfait et pourra réagir d'une façon non-anticipée lors d'un dilemme. Si, par exemple, il doit choisir le moindre mal entre deux résultats indésirables, peut-être que l'action qu'il privilégiera ne sera pas celle qu'il faudrait. En fait, le danger résiderait surtout dans le fait que de concevoir une AI si développée serait une tâche si complexe pour les programmeurs qu'il y aurait beaucoup plus de chances qu'ils aient commis une erreur amenant à un résultat aberrant et problématique dans certaines situations.

    Mais, comme j'ai dit, c'est surtout si le AI est conçu pour être une copie de l'esprit humain qu'il pourrait être dangereux... autant que peut l'être un humain.

    RépondreEffacer