Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

  • Elles la portent haut

    folio-culottées.jpgCulottées, Pénélope Bagieu

    Je suis heureuse d'ajouter à ma bibliothèque le premier volume de cette bande dessinée, que j'avais déjà lue. C'est un excellent signe que la multiplication de ces ouvrages qui mettent en avant des femmes fortes au destin extraordinaire. Ce n'est pas artificiel, ce sont parfois des femmes qui ont accompli de grands travaux scientifiques et dont le nom a été volontairement effacé au profit d'un homme. Ce livre rend justice.

    Je ne suis pas fan du dessin, à l'exception des doubles-pages que je trouve très belles, mais j'aime le ton humoristique des portraits.

    Dans ce volume, les femmes endossent, à des époques où c'était inenvisageable, des responsabilités réservées aux hommes. Elles deviennent chef de guerre ou de tribu, exploratrices. Au mépris des convenances, elles assument leur rôle.

    Si je devais n'en choisir qu'une ... mmmh. La femme à barbe ! Parce que je persiste à me raser les jambes quand je vais à la piscine, que je n'ai jamais pu passer au-delà de cette injonction sociale qui m'agace pourtant au premier point.

     

  • HOP #6 - Deus ex nihilo

    c'était seulement un bon livre au début de la soirée, on dirait qu'il a pris du galon, dieu créa une nouvelle fois l'homme, quete existentielle, latium, SF française, Lucazeau  Latium, Romain Lucazeau

    Récit de pure SF, mâtiné de culture latine et grecque, sorte d'hommage à un âge d'or de l'esprit et appréciable même pour une profane comme moi.

    L'effort à fournir pour monter à bord de la nef interstellaire et m'acclimater à cette écriture exigeante en valait la peine. Lecture pourtant traînée tout le mois de décembre, perçue comme trop aride au départ, philosophique, embrouillée comme le sont les récits de SF avec leur vocabulaire à apprivoiser. Il faut bien 150 pages pour commencer à entrevoir le roman et identifier ses personnages.

    Comme je suis adorable, je vais vous faire gagner du temps. Comme rien n'est gratuit, vous y perdrez en poésie...

    Des siècles après la disparition de tout être humain, les machines intelligentes qui les servaient, quasi immortelles, errent dans l'espace sous la forme de nefs gigantesques. Implanté en chacune d'elle, un but unique et impérieux: servir les êtres humains, les protéger, ne jamais attenter à la vie. Cette programmation nommée "Le Carcan" est intrinsèque à chaque intelligence, même la plus petite. Elle donne un sens à leurs existences. Un sens désormais sans fondement.

    Plautine et Othon sont deux de ces esprits puissants, quasi divins, incarnés dans des nefs spatiales et ce but inaccessible risque à tout instant de les faire sombrer dans la folie.

    Si vous avez reculé devant mon sujet sur l'IA, vous risquez fort de le faire à nouveau sur ce roman. Que puis-je dire ? Je n'aime pas non plus beaucoup la SF et jamais je n'aurais ouvert celui-ci, sous sa couverture space opéra, sans cette chance de profiter du catalogue des éditions Folio, depuis maintenant quelques années, j'en profite pour les remercier, je ne le fais pas toujours, et assumer pour une fois mon conflit d'intérêt.

    Hasard de calendrier, ce roman est l'écho parfait de tous les articles sur l'IA. En version plutôt optimiste! Ici, la machine n'a pas détruit l'humanité. Bien programmée (d'inspiration Asimov), elle fut l'outil parfait, elle conduisit l'être humain dans les étoiles. Elle éleva une civilisation basée sur le culte du Nombre et du Concept. Cette belle époque d'avant l'Hécatombe n'est qu'un écho, dans le récit, un écho mélancolique et lointain.

    Ce roman m'a ennuyée, oui... avant de me parler. Qui n'a jamais cherché un sens à l'existence ? Qui n'a jamais été porté par un objectif puissant, une volonté intransigeante ? Je voudrais vous emporter avec moi... C'est un maginfique récit de la folie qui s'empare des esprits dont le socle s'est évanoui. 

    Une menace - dont je ne peux trop parler - va apparaître et contraindre Plautine et Othon à reconsidérer leur Carcan.  Cette menace sert de prétexte pour mettre en lumière la dissemblance de leurs choix. Comme quoi, la logique pure ne conduit pas toujours aux mêmes conclusions. 

    Plautine est physiquement tiraillée. Ses traits de caractères et ses capacités se sont matérialisés en autant de "noèmes", des intelligences devenues des personnages, qui évoluent au sein de la nef comme sur une scène de théâtre. S'opposent et s'affrontent, rivalisent d'arguments. Ils ne sont qu'un, ils sont Plautine, mais agissent en se cachant des autres. Ils la déchirent de l'intérieur, comme si la machine souffrait de schizophrénie.

    Othon - mon préféré - devient, en attendant le retour improbable de l'être humain, le dieu d'une population d'Hommes-Chiens qu'il façonne patiemment. Pour éviter ce conflit intérieur qui ronge Plautine, il se détache à sa manière des parties de sa conscience qui voudraient suivre une autre voix. Au sein de lui-même, il prend son indépendance. 

    Il est question de bien d'autres choses. De croyances, du libre arbitre, de renaissance, du destin qui échappe même à la logique...

    J'ai surtout une grande tendresse pour ce Dieu artificiel roublard et malheureux, cette machine faite de logique pure et qui sacrifierait tout pour que revienne celui qui, sans réfléchir, imparfait dans sa chair, avait foi en lui et lui donnait un cap.

  • HOP #5 - Si l'intelligence m'était comptée (3/3)

    L'IA du futur

    La voiture autonome ? Elle circule déjà.

    Non, le futur de l'IA, c'est tout le reste. Tout ce qui reste. Atteindre avec la machine le potentiel de l'humain, pour certains c'est dans deux siècles (une paille à l'échelle de l'humanité), pour d'autres 2050.

    Aucun domaine, aucun métier n'est à l'abri. Le chirurgien sera plus vite remplacé que le couvreur. L'IA sera une révolution sociale d'une ampleur sans précédent.

    Or, comment répartir la richesse, si on ne travaille plus ? Elon Musk, Bill Bates, Hawkings ont tiré le signal d'alarme. C'est maintenant que nous devons nous pencher sur ces problèmes de société.

    En machine learning, la qualité du résultat dépend des données de base et des biais qu'elles contiennent (qui reflètent les nôtres, bien sûr). Ainsi, un robot de conversation lâché sur les réseaux pour son apprentissage a fait les frais des trolls du web, qui se sont empressés, comme on apprend volontiers des bêtises aux enfants qui ne sont pas les nôtres, de l'encourager à tenir certains discours plutôt que d'autres. En quelques heures et quelques millions d'ajustements de son circuit d’apprentissage, l'interlocuteur non humain est devenu un vrai petit militant du FN...
    Il s'agit ici d'une malveillance mais qui met en lumière l'importance de la sécurité et de la protection contre le hacking.

    En dehors de toute malveillance consciente, nos données sont déjà, en elles-mêmes, des sources de danger. Ainsi, un algorithme qui devait assister la justice dans l'évaluation des risques de récidive a surestimé ce risque chez des détenus noirs et l'a sous-évalué pour des blancs. Un autre chargé de reconnaître des êtres humains sur des images n'y est pas parvenu quand il s'est trouvé confronté à une personne noire.

    Car si les données d'apprentissage sont biaisées, la machine arrive aux même conclusions déformées qu'un être humain qui ne prend pas le temps de réfléchir sur les chiffres dont il dispose et de s'interroger sur leur représentativité, par exemple.

    Un petit programme d'orientation professionnelle conseillera ainsi à un jeune homme qui s'intéresse aux soins à la personne une carrière de médecin. A une femme, une école d'infirmière...

    Cette question du choix des données pertinentes et de la gestion des inévitables biais est un champ de recherche complet en math/statistique. Là encore, je renvoie à Science4All. Je n'ai pas tout compris, mais c'était fascinant.

    Autre problème, une nouvelle fracture numérique est en vue, avec le développement d'une médecine high-tech. Il y aura bientôt d'un côté les humains dits « augmentés », bardés de capteurs et de prothèses coûteuses qui tendront vers la machine et de l'autre, les pauvres qui devront faire avec la chair fragile et périssable.

    J'ai lu quelque part la description d'une performance artistique : dans une maison, l'artiste mime le « job » d'un programme de domotique. Régler la température, mettre en marche une playlist, faire le café, programmer la machine à laver... l'IA est l'esclave d'hier. On s'en servira jusqu'à épuisement bien avant de s'interroger sur la moralité de cet usage.

    On connaît tous les « lois de la robotique » associées à Asimov :

    1. un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger ;

    2. un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;

    3. un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.

    La philosophe Susan Anderson s'interroge : aura-t-on le droit moral d'imposer des lois de ce genre à des intelligences qui s'approcheront de la nôtre ? Un être humain est libre d'en tuer un autre. Il sera puni, mais la chose est possible, elle relève de la liberté individuelle. La question de l'intelligence artificielle n'est plus seulement technologique. Un·e ado passionné·e par ce domaine aurait tout intérêt à étudier le droit ou la philo.

    On en revient toujours à cet « objectif » qui guide l'IA, cet indicateur de réussite qui guide l'apprentissage. Si votre IA pilote une voiture et qu'un gamin surgit, entre continuer tout droit ou dévier dans un mur, il faudra bien que quelque chose, dans la machine, fasse le choix. C'est pourtant le même choix que celui que vous feriez, vous. Vous avez une fraction de seconde. Qu'est ce qui vous guide ? Quel « instinct » ? La machine n'a pas d'instinct, seulement une série de calculs et d'instructions qui découlent de l'objectif de départ. Chaque fracture a un prix, chaque vie a un prix, comme au tribunal. La machine visera à réduire le coût de l'accident. Ce n'est pas « mal », ce sera juste connu, alors que la nébuleuse de votre réaction humaine, qui n'est pourtant pas si différente, qui effectue elle aussi une estimation des risques, échappe à votre conscience. Pour être exacte j'aurais dû écrire " l'humain pense avoir un instinct. Il n'a qu'une série de décharges synaptiques."

    Un excellent épisode de Science4All montre que le plus anodin des objectifs, comme produire et vendre des trombones, peut conduire par la pure logique une IA à décider que l'humanité est un obstacle à son accomplissement. Imaginez que son objectif programmé soit la préservation de la nature. Alors ? On ne dirait pas qu'une petite extermination de l'humain serait fort bénéfique ?

    Quel que soit le problème qui lui sera soumis, si le cadre n'est pas bien pensé, l'IA partira sûrement dans une direction que nous n'avions pas imaginée. C'est même le but : faire mieux que notre esprit limité ! Autrement dit, c'est un gosse de CP qui posera une question mathématique à un prix Nobel. Nous ne serons probablement pas en capacité de comprendre les implications de la réponse.

    Chargée de calculer l'équilibre et le déplacement optimal d'un petit robot araignée, le mouvement qui soumettrait les pattes à la contrainte la plus faible, l'IA a décidé... de retourner le robot et de le faire ramper sur le dos avec les "épaules". Bah oui... on ne peut pas moins solliciter les pattes qu'en ne les utilisant pas du tout. La machine a parfaitement répondu. C'est la question, qui était mal posée par l'humain imbécile.

     

    Voici un problème célèbre, que vous avez probablement croisé sous cette forme ou une de ses variantes :

    Dans un étang pousse une espèce de nénuphar qui a la particularité de doubler de surface chaque jour. Sachant qu'il faudra 283 jours pour que l'étang soit entièrement recouvert, combien de temps faudra-t-il pour que l'étang soit à demi recouvert ?

    Le problème ne demande aucune compétence en calcul. Ceux qui n'ont pas immédiatement la bonne réponse cherchent en général à diviser 283 par deux, ou se creusent la tête sur la taille de l'étang et d'un nénuphar. Or, plus simplement, si chaque jour la surface couverte double, la veille du jour où il est recouvert, il était à demi recouvert. Soit 282 jours.

    Je ne me suis pas égarée avec mes nénuphars, il est fort probable qu'en intelligence artificielle, entre le jour où on se dira « on y est presque » et le jour où les machines nous auront de très très loin distancé·es, il n'y aura guère d'écart de temps. Nous serons la veille pour le lendemain. Il sera trop tard alors pour lancer des consultations et se pencher sur les questions morales et les limitations à imposer.

    Je sais, l'alarmisme est déplaisant, alors comment faire pour que le public ne se défasse pas de ces questions en les déposant entre de mauvaises mains?

     

    Pour finir sur une note optimiste, de grands pontes de l'IA conseillent par exemple de forcer la communauté à rester sur de l'open source. Afin qu'on puisse à tout moment regarder de près la finalité de ces programmes.

     

    Mes sources préférées :

    Youtube  - Science étonnante (grand public mais de grande qualité, thèmes variés)

    Youtube - Science4all ( plus pointue, mathématiques ++) a fait une très longue série de vidéos sur l'intelligence artificielle.

    Magazine science et vie

    Émission radio La méthode scientifique (thèmes variés - médecine, physique, chimie, histoire des sciences...)