Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

HOP #5 - Si l'intelligence m'était comptée (3/3)

L'IA du futur

La voiture autonome ? Elle circule déjà.

Non, le futur de l'IA, c'est tout le reste. Tout ce qui reste. Atteindre avec la machine le potentiel de l'humain, pour certains c'est dans deux siècles (une paille à l'échelle de l'humanité), pour d'autres 2050.

Aucun domaine, aucun métier n'est à l'abri. Le chirurgien sera plus vite remplacé que le couvreur. L'IA sera une révolution sociale d'une ampleur sans précédent.

Or, comment répartir la richesse, si on ne travaille plus ? Elon Musk, Bill Bates, Hawkings ont tiré le signal d'alarme. C'est maintenant que nous devons nous pencher sur ces problèmes de société.

En machine learning, la qualité du résultat dépend des données de base et des biais qu'elles contiennent (qui reflètent les nôtres, bien sûr). Ainsi, un robot de conversation lâché sur les réseaux pour son apprentissage a fait les frais des trolls du web, qui se sont empressés, comme on apprend volontiers des bêtises aux enfants qui ne sont pas les nôtres, de l'encourager à tenir certains discours plutôt que d'autres. En quelques heures et quelques millions d'ajustements de son circuit d’apprentissage, l'interlocuteur non humain est devenu un vrai petit militant du FN...
Il s'agit ici d'une malveillance mais qui met en lumière l'importance de la sécurité et de la protection contre le hacking.

En dehors de toute malveillance consciente, nos données sont déjà, en elles-mêmes, des sources de danger. Ainsi, un algorithme qui devait assister la justice dans l'évaluation des risques de récidive a surestimé ce risque chez des détenus noirs et l'a sous-évalué pour des blancs. Un autre chargé de reconnaître des êtres humains sur des images n'y est pas parvenu quand il s'est trouvé confronté à une personne noire.

Car si les données d'apprentissage sont biaisées, la machine arrive aux même conclusions déformées qu'un être humain qui ne prend pas le temps de réfléchir sur les chiffres dont il dispose et de s'interroger sur leur représentativité, par exemple.

Un petit programme d'orientation professionnelle conseillera ainsi à un jeune homme qui s'intéresse aux soins à la personne une carrière de médecin. A une femme, une école d'infirmière...

Cette question du choix des données pertinentes et de la gestion des inévitables biais est un champ de recherche complet en math/statistique. Là encore, je renvoie à Science4All. Je n'ai pas tout compris, mais c'était fascinant.

Autre problème, une nouvelle fracture numérique est en vue, avec le développement d'une médecine high-tech. Il y aura bientôt d'un côté les humains dits « augmentés », bardés de capteurs et de prothèses coûteuses qui tendront vers la machine et de l'autre, les pauvres qui devront faire avec la chair fragile et périssable.

J'ai lu quelque part la description d'une performance artistique : dans une maison, l'artiste mime le « job » d'un programme de domotique. Régler la température, mettre en marche une playlist, faire le café, programmer la machine à laver... l'IA est l'esclave d'hier. On s'en servira jusqu'à épuisement bien avant de s'interroger sur la moralité de cet usage.

On connaît tous les « lois de la robotique » associées à Asimov :

  1. un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger ;

  2. un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;

  3. un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.

La philosophe Susan Anderson s'interroge : aura-t-on le droit moral d'imposer des lois de ce genre à des intelligences qui s'approcheront de la nôtre ? Un être humain est libre d'en tuer un autre. Il sera puni, mais la chose est possible, elle relève de la liberté individuelle. La question de l'intelligence artificielle n'est plus seulement technologique. Un·e ado passionné·e par ce domaine aurait tout intérêt à étudier le droit ou la philo.

On en revient toujours à cet « objectif » qui guide l'IA, cet indicateur de réussite qui guide l'apprentissage. Si votre IA pilote une voiture et qu'un gamin surgit, entre continuer tout droit ou dévier dans un mur, il faudra bien que quelque chose, dans la machine, fasse le choix. C'est pourtant le même choix que celui que vous feriez, vous. Vous avez une fraction de seconde. Qu'est ce qui vous guide ? Quel « instinct » ? La machine n'a pas d'instinct, seulement une série de calculs et d'instructions qui découlent de l'objectif de départ. Chaque fracture a un prix, chaque vie a un prix, comme au tribunal. La machine visera à réduire le coût de l'accident. Ce n'est pas « mal », ce sera juste connu, alors que la nébuleuse de votre réaction humaine, qui n'est pourtant pas si différente, qui effectue elle aussi une estimation des risques, échappe à votre conscience. Pour être exacte j'aurais dû écrire " l'humain pense avoir un instinct. Il n'a qu'une série de décharges synaptiques."

Un excellent épisode de Science4All montre que le plus anodin des objectifs, comme produire et vendre des trombones, peut conduire par la pure logique une IA à décider que l'humanité est un obstacle à son accomplissement. Imaginez que son objectif programmé soit la préservation de la nature. Alors ? On ne dirait pas qu'une petite extermination de l'humain serait fort bénéfique ?

Quel que soit le problème qui lui sera soumis, si le cadre n'est pas bien pensé, l'IA partira sûrement dans une direction que nous n'avions pas imaginée. C'est même le but : faire mieux que notre esprit limité ! Autrement dit, c'est un gosse de CP qui posera une question mathématique à un prix Nobel. Nous ne serons probablement pas en capacité de comprendre les implications de la réponse.

Chargée de calculer l'équilibre et le déplacement optimal d'un petit robot araignée, le mouvement qui soumettrait les pattes à la contrainte la plus faible, l'IA a décidé... de retourner le robot et de le faire ramper sur le dos avec les "épaules". Bah oui... on ne peut pas moins solliciter les pattes qu'en ne les utilisant pas du tout. La machine a parfaitement répondu. C'est la question, qui était mal posée par l'humain imbécile.

 

Voici un problème célèbre, que vous avez probablement croisé sous cette forme ou une de ses variantes :

Dans un étang pousse une espèce de nénuphar qui a la particularité de doubler de surface chaque jour. Sachant qu'il faudra 283 jours pour que l'étang soit entièrement recouvert, combien de temps faudra-t-il pour que l'étang soit à demi recouvert ?

Le problème ne demande aucune compétence en calcul. Ceux qui n'ont pas immédiatement la bonne réponse cherchent en général à diviser 283 par deux, ou se creusent la tête sur la taille de l'étang et d'un nénuphar. Or, plus simplement, si chaque jour la surface couverte double, la veille du jour où il est recouvert, il était à demi recouvert. Soit 282 jours.

Je ne me suis pas égarée avec mes nénuphars, il est fort probable qu'en intelligence artificielle, entre le jour où on se dira « on y est presque » et le jour où les machines nous auront de très très loin distancé·es, il n'y aura guère d'écart de temps. Nous serons la veille pour le lendemain. Il sera trop tard alors pour lancer des consultations et se pencher sur les questions morales et les limitations à imposer.

Je sais, l'alarmisme est déplaisant, alors comment faire pour que le public ne se défasse pas de ces questions en les déposant entre de mauvaises mains?

 

Pour finir sur une note optimiste, de grands pontes de l'IA conseillent par exemple de forcer la communauté à rester sur de l'open source. Afin qu'on puisse à tout moment regarder de près la finalité de ces programmes.

 

Mes sources préférées :

Youtube  - Science étonnante (grand public mais de grande qualité, thèmes variés)

Youtube - Science4all ( plus pointue, mathématiques ++) a fait une très longue série de vidéos sur l'intelligence artificielle.

Magazine science et vie

Émission radio La méthode scientifique (thèmes variés - médecine, physique, chimie, histoire des sciences...)

Lien permanent Catégories : Laboratoire 2 commentaires

Commentaires

  • Les applications sont infinies... bien plus que je ne l'imaginais il y a encore quelques temps.
    Pour ce qui est de laisser les codes en open source, je suis partagée... Certes cela nous prémunirait contre certaines manipulations grâce aux lanceurs d'alerte vigilants, mais est-ce qu'on ne risquerait pas à l'opposé de laisser une porte ouverte à des programmeurs mal intentionnés qui pourraient discrètement modifier des fichiers en apparence moins sensibles et faire pas mal de dégâts le temps qu'on s'en rende compte ?
    Qu'est-ce qui est le plus risqué ? Qu'en dirait l'IA ? Est-ce que trop développée elle ne pourrait pas s'auto-verrouiller pour que les crétins d'humains ne soient plus en mesure de tout bousiller, encore ?

    C'était ma note d'optimisme.

  • Je dois dire que j'ignore ce qu'est concrètement l'open source. Est ce que ça ne pourrait pas être la mise à disposition d'une copie du code ?
    Pas l'accès au code en lui même, sinon en effet, ça poserait de gros problèmes de sécurité.
    Mais si c'est une copie rien ne garantit que c'est celle que tu as vraiment mise dans la machine.
    Tu te dévoues pour nous trouver la réponse ? ^^

    L'IA qui hack son propre code, c'est le thème d'une des vidéos de Science4All que j'ai écoutée ce we. Il m'en reste une dizaine et j'ai fini.

Les commentaires sont fermés.