8.1 Science et éthique

8.1.1 L'intelligence artificielle

Le développement technologique a atteint des niveaux auparavant inattendus.
Si d’une part on est ébloui par les progrès des sciences et de la technologie, d’autre part les exemples de dérives ou d’utilisation des résultats scientifiques à des fines malveillantes sont fréquents et nous posent des interrogatifs auxquels il faudra trouver une réponse.

Pour réfléchir…

  1. Les chercheurs sont-ils responsables de l’utilisation qui peut être faite de leurs travaux ?
  2. Faut-il interrompre la recherche lorsqu’un risque important est avéré ?
  3. Les garde-fous dont on dispose actuellement sont-ils suffisants ?
  4. Au nom de quoi le droit peut-il intervenir ?
  5. Faudrait-il une gouvernance mondiale de la recherche scientifique et technologique ?
  6. À quoi sert le principe de précaution ?
  7. Quelle est la liberté des chercheurs dans l’investigation scientifique ?
  8. La question se pose davantage lorsqu’on parle d’intelligence artificielle qui vise à créer ou à simuler chez des robots une intelligence comparable à celle de l’homme ou davantage spécialisée au point que les chercheurs s’inquiètent déjà de son possible détournement.

Vers l’oral interactif – Activité 1

Après avoir visionné le reportage de France 2 répondez aux questions de la fiche 2.

screen

Activité 2

Choisissez une des images proposées ci-dessous, lisez attentivement la question posée par les journalistes de L’Express dans la légende et préparez un exposé de 4 minutes sur l’une des images. En pair  présentez et gérez une interaction d’environ 4/6 minutes. Si la date de votre examen oral individuel approche, enregistrez-vous afin de vous mettre dans des conditions semblables à celles de l’examen.

Image 8.1.1e – Une voiture autonome
Conduiriez-vous une voiture prête à vous sacrifier ?
Selon une étude, si la majorité des sondés préfèrent une voiture autonome qui "sacrifie" son passager pour sauver plusieurs piétons, ils sont également majoritairement "moins disposés" à en acquérir une si elle fonctionne ainsi. Paradoxal. lexpansion, Lexpress.fr

Image 8.1.1f – Chaleur humaine ou un robot ?
Préfériez vous de la chaleur humaine ?
En Belgique, deux hôpitaux vont intégrer à leurs équipes des robots de dernière génération. Ils serviront d'hôte d'accueil et de guides. lexpansion, Lexpress.fr

Image 8.1.1g – La peau artificielle
L'intelligence artificielle aura-t-elle la peau de l'humanité ?
L'avènement imminent d'une véritable intelligence artificielle amène certains chercheurs à développer des programmes défensifs. Comme ce "bouton rouge" de Google visant à s'assurer que l'on puisse toujours désactiver un programme apprenant.

Introduction des arguments indiquant la concession et l’opposition

Introduction des arguments que l’on concède Introduction des arguments d’opposition
  • Certes... Sans doute...
  • Effectivement...
  • Bien que + subjonctif
  • Même si + indicatif
  • tout+ adjectif+ que + être au subjonctif
  • Tout + nom + que + être à l’indicatif
  • Quand bien même + verbe au conditionnel
  • Pourtant... Cependant...
  • Toutefois... Malgré tout...
  • Néanmoins...
  • Il n’en reste...(demeure) pas moins que...
  • il n’empêche que...

8.1.1a

Image 8.1.1a

Textes et fiches à télécharger

Texte 1
Fiche texte 1 Word | PDF
Fiche texte 2 Word | PDF

8.1.1b

Image 8.1.1b

Lexique thématique

  • IA
  • progrès scientifique
  • autonomisé
  • robot
  • garde-fous
  • principe de précaution
  • bouton rouge
  • logiciel
  • programme défensif
  • chercheur
  • investigation scientifique

8.1.1c

Image 8.1.1c

Profil de l’apprenant

Intègre et équilibré : Les apprenants réfléchissent à la responsabilité de leurs actes et agissent en adhérant à des principes d’intégrité. De même ils accordent une importance équivalente aux bien être individuel et collectif.

8.1.1d

Image 8.1.1d

Théorie de la connaissance

Qu’est-ce qui distingue l’être humain de l’intelligence artificielle ?
Pourrons-nous considérer une IA qui montre de l’empathie un homme ?
Quelle différence entre la connaissance de l’IA et la nôtre ?

Production écrite

« Une IA forte à notre service est une illusion, elle est soit forte, soit c'est un esclave, une IA toutou. Ce qui n'empêche d'ailleurs pas une IA faible, si elle est programmée pour ça, d'être nocive ». Discutez cette opinion dans une dissertation qui compte de 250 à 400 mots.
Comment écrire une dissertation? Consultez la page 14.1.15 pour les stratégies d’écriture de la dissertation. 

Texte 1 – La victoire de l’ordinateur AlphaGo

La victoire de l’ordinateur AlphaGo
par Chantal Delsol, 2016

Une partie de go-jeu beaucoup plus complexe que les échecs- a été gagnée par un ordinateur, AlphaGo, contre le champion mondial le Sud-Coréen Lee Sedol. Grand émoi dans les milieux scientifiques, mais surtout dans les médias, et ici et là l’émoi n’est pas le même.

AlphaGo correspond à ce que l’on appelle l’intelligence artificielle forte, c’est-à-dire que non seulement elle est la plus performante en calculs de probabilités, mais elle est programmée de façon à tirer parti  de ses expériences. Les scientifiques savent qu’ils iront encore beaucoup plus loin, et de façon exponentielle, selon la loi dit Moore. Toute la question concerne la manifestation, et le dépassement des capacités humaines- et lesquelles. Elle concerne, donc l’éventualité de nous voir dépassés par un peuple de robots. Question de savoir à quoi nous servirons, nous les humains, quand les machines pourront tout accomplir plus vite et mieux que nous. Mais les inquiétudes vont plus loin que cela.

On peut comprendre que les créateurs de ces machines soient parfois saisis d’attendrissement devant les performances de leurs produits. Évidemment ils ont tendance à tomber dans l’anthropomorphisme : l’ordinateur à ce stade serait capable d’ « intuition » et de «  créativité », il montrerait un «  jeu très mature »...
Tous ces mots sont employés en un sens dérivé. Turing a cherché à savoir si la machine était « consciente ». C’est imagé. La machine n’est ni consciente ni libre, mais si elle évolue avec l’expérience (ou plutôt avec la succession des résultats).
Elle n’a ni sentiments ni émotions, même si naturellement on peut faire en sorte qu’elle les simule. Autrement dit, pour la rendre semblable à nous, il faut rabaisser toutes nos facultés, et dévaloriser leur sens. Le plafond de verre entre la machine et l’homme, c’est la liberté qui fond la conscience morale. On raconte l’histoire de cette Google Car (voiture sans chauffeur) qui a provoqué un accident  pour n’avoir pas su déroger au Code de la route au moment où il aurait fallu...
L’humain peut prendre une décision morale, c’est sa spécificité et sa grandeur.
Il répondra aux situations tragiques, exceptionnelles, même s’il y répondra toujours de façon imparfaite et discutable. La machine peut le dépasser de beaucoup en rationalité, d’où la victoire d’AlphaGo. Mais la rationalité n’est pas l’essentiel de l’humain, et pas non plus l’essentiel de l’intelligence humaine, laquelle est étroitement liée au sens des situations et à la conscience morale, assortie de responsabilité. C’est pourquoi la cybernétique peut administrer, mais pas véritablement gouverner, ce qui  suppose des décisions libres.

Certains  scientifiques croient que l’esprit humain serait réduit au mécanisme du cerveau. Quand on réduit tout à la biologie, on finit par traiter les hommes comme de la viande- c’est arrivé au XXe siècle. Notre dignité dépasse notre corps et nous le savons bien. Notre liberté aussi. Si ce n’était pas le cas, on ne voit pas pourquoi on devrait s’indigner devant tous les camps totalitaires.

Cependant les craintes devant la puissance des machines s’expriment sur plusieurs registres. Nombre de scientifiques de haut vol, comme Stephen Hawking, craignent que la complexité des machines produise des désastres : elle pourrait prendre des moyens destructeurs pour courir aux buts assignés, comme certains films de science-fiction l’ont imaginé (par exemple, 2001 : l’Odyssée de l’espace de Kubrick). Une lettre ouverte signée par Hawking, Bill Gates et  Elon Musk, et des nombreux autres, réclame que les programmes de développement de l’intelligence soient réfléchis d’avance à partir de « ses bénéfices pour la société et la constitution de garde-fous ». On peut se féliciter de voir des créateurs penser les limites de leurs créations. Le progrès pour le progrès n’a pas de sens : pour aller où ? Science sans conscience...

Pendant ce temps, il ne manque pas de journalistes, prenant au pied de la lettre les descriptions anthropomorphiques de certains scientifiques et cherchant le sensationnel, pour décrire l’irruption sur la terre de créatures démoniaques, de robots à qui on aurait donné la pensée et qui en profiterait pour jouer des tours à leurs créateurs. Certes, l’histoire de l’apprenti sorcier pourrait bien se dérouler sur nos yeux : mais ce ne serait pas de machines devenues conscientes et « méchantes »., comme le Pinocchio de Lorenzini. Ce serait cependant plus grave que lorsque des outils dangereux (la bombe atomique) tombent entre des mains criminelles. Ce serait des machines, non pas devenue perverses (!), mais  dont la rationalité complexe et adaptable pourrait  déclencher des catastrophes, par simple incapacité de s’arrêter. Car les robots, champions de rationalité, n’ont pas de sens moral. Ils peuvent gagner la partie de go, mais certainement pas voler spontanément au secours de leur prochain.

Delsol, Chantal. "La victoire De l'ordinateur AlphaGo." Le Figaro, March 13, 2016.