Comment vivre en bonne intelligence avec les algorithmes

Paris, le samedi 23 décembre 2017 - L’intelligence artificielle inquiète autant qu’elle fascine. Depuis plusieurs années, les mises en garde quant aux risques que courrait l’humanité confrontée à l’évolution de l’intelligence artificielle se multiplient. Soutenues par des personnalités scientifiques reconnues, ces inquiétudes ne sont cependant pas totalement partagées. Néanmoins, la nécessité d’une réflexion éthique apparaît faire consensus.

Mobilisation unanime

S’inscrivant dans cette optique, la Commission nationale informatique et liberté (CNIL) a conduit un travail inédit en France et dans de nombreux autres pays occidentaux. Elle a organisé une très large concertation sur les problématiques éthiques liées aux algorithmes et à l’intelligence artificielle. Quarante-cinq manifestations ont ainsi été organisées tout au long de l’année dans plusieurs villes de France et aux États-Unis auxquelles ont participé 3 000 personnes. Point d’orgue de ces rencontres, une concertation citoyenne s’est déroulée le 14 octobre dernier à Montpellier. L’ensemble des acteurs concernés ont été associés à cette démarche. Le monde de l’école, la santé, la justice, la sécurité, la finance, les instituts de recherche : une mobilisation de tous les secteurs a été assurée.

Que l’homme ne se laisse pas trop facilement remplacer par la machine

Ces discussions ont permis de cerner les multiples interrogations éthiques qui accompagnent le développement de l’intelligence artificielle. Outre la nécessaire protection des données individuelles très fréquemment évoquée, il apparaît essentiel de préserver « l’autonomie humaine » face au « défi de l’autonomie des machines ». Un nombre croissant de logiciels offrent en effet de déléguer des tâches complexes aux ordinateurs (par exemple pour l’établissement d’un diagnostic médical). Cette possibilité expose à un risque de dérives. « Souvent jugées infaillibles et neutres, ces machines n’ouvrent-elles pas la voie à une confiance excessive et à la tentation pour chacun de ne pas exercer pleinement ses responsabilités » s’interroge notamment la CNIL, soulevant ici une question particulièrement prégnante dans le domaine médical.

Le triomphe de l’individualisme ?

Les échanges au cours de ces concertations ont également mis en évidence d’autres risques : celui de la création de nouvelles discriminations et exclusions et celui du surinvestissement des intérêts individuels par rapport à la logique collective. Sur ce point la CNIL remarque : « Bien que des bénéfices certains pour l’individu émanent de la segmentation et du profilage » ils peuvent « tout autant affecter vigoureusement des logiques collectives essentielles à la vie de nos sociétés ». D’une manière certaine, ces points de réflexion ont confirmé la nécessité pour l’homme de garder une position centrale et raisonnée, évitant d’accorder une confiance excessive aux machines. 

Mais qu’est-ce que c’est ?

Ainsi, deux principes généraux ont pu être dégagés : celui de la « loyauté » et celui de la vigilance.  Il s’agit de faire toujours primer l’intérêt des utilisateurs, « non pas seulement en tant que consommateurs, mais également en tant que citoyens, voire envers des communautés ou de grands intérêts collectifs dont l’existence pourrait être directement affectée ». Par ailleurs, la nécessité d’une vigilance soutenue est rappelée. Celle-ci doit s’exercer vis-à-vis de l’ensemble de la « chaîne algorithmique »  insiste encore la CNIL. Plus concrètement, l’institution prône une plus grande formation des concepteurs d’algorithme aux questions éthiques, la mise en place d’une plateforme nationale d’audit et invite à rendre « les systèmes algorithmiques compréhensibles ».

Aujourd’hui, 52 % des Français admettent qu’ils ne savent pas exactement de quoi il s’agit.

Aurélie Haroche

Copyright © http://www.jim.fr

Réagir

Vos réactions (2)

  • Algorithme et protocoles

    Le 27 décembre 2017

    Un parallèle peut être fait entre algorithme et protocole : l'obligation d'une responsabilité assumée de les respecter ou non. Le savoir dire "Non" a ici toute sa valeur. Notre éducation à la française a tendance à casser les individus opposants... c'est bien dommage. On devrait leur apprendre à argumenter toute opposition et surtout... à les écouter et à accepter qu'ils ne suivent par le protocole, ou la décision de la machine.
    Donc 3 prérequis :

    1) penser que l'algorithme comme les protocoles ont leur limite et qu'en aucun cas, on ne peut enfermer l'humain dedans. Ce serait la négation simple de l'humanité et de sa complexité.

    2) Apprendre et développer la pensée critique. Indispensable à la naissance de l'éthique. Règles, lois, morale, éthique, intérêt individuel et ou collectif...

    3) Accepter qu'une "prescription" puisse être remise en cause. Et là c'est de l'exercice raisonné de l'autorité dont il s'agit.

    Il y a encore beaucoup de chemin à faire... Si le développement de la machine est plus rapide que l'évolution nécessaire à l'humain pour en garder le contrôle, seuls les anarchistes auront alors une chance de survie !

    CD

  • Machines neutres ?

    Le 05 janvier 2018

    "Pas si neutres que cela puisqu'elles peuvent s'exprimer intelligemment sans l'assistanat de l'homme ces chers algorithmes et sur des questions parfois un peu complexes!
    Ce qui détrône l'homme qui n'a pas trouvé la réponse à temps!

    Dr Claude Le Garrois

Réagir à cet article