L’Éthique de l’IA : Questions & Dilemmes

L’avènement de l’intelligence artificielle et son adoption globale dans la société actuelle ont fini par soulever d’importantes questions concernant le cadre éthique auquel le développement et l’utilisation des systèmes intelligents devraient se conformer. Ceci étant dit, pourquoi maintenant ?

Si l’histoire est une quelconque indication, alors cette phase où les humains s’interrogent sur la moralité d’une nouvelle technologie était destinée à arriver tôt ou tard. Nous atteignons à présent un point de maturité dans la technologie de l’IA où l’attention bascule du développement et des applications vers l’éthique et les réglementations. Nous mettons en lumière certains dilemmes éthiques rencontrés dans divers domaines où l’IA est appliquée aujourd’hui. Certains d’entre eux exposent des situations quotidiennes où les décisions ne sont pas si noires et blanches et où la frontière entre le bien et le mal est terriblement floue. D’autres remettent en question les définitions de longue date de certains concepts humains, en soulignant judicieusement qu’elles pourraient ne plus être applicables dans la société de demain.

Le Biais Systémique dans les Modèles d’IA

L’un des plus grands exemples utilisés pour mettre en garde contre l’utilisation naïve de l’intelligence artificielle est celui des différents biais cognitifs que ces systèmes manifestent lorsqu’ils sont mis à l’épreuve, ce qui entraîne souvent des conséquences involontaires. Pour mettre les choses en perspective, un modèle d’IA ne sait pas si ses décisions sont biaisées ou non, nous sommes encore loin d’une Intelligence Artificielle Générale (IAG) capable d’un raisonnement et d’une introspection de si haut niveau.

En pratique, un algorithme d’apprentissage automatique est entrainé à l’aide de plusieurs paires de données (entrée, sortie) afin d’approcher de manière inductive la fonction réelle et inconnue entre les espaces d’entrée et de sortie souhaités. Idéalement, cette phase d’apprentissage lui permettrait d’acquérir la capacité de se généraliser (c’est-à-dire de déduire ou de prédire) à de nouveaux points de données d’entrée qui n’ont pas été rencontrés avant. Les biais découlent de ce processus de différentes manières, soit à cause de la distribution asymétrique des données utilisées pour l’apprentissage (par exemple, présence de populations sous-représentées), soit dans la conception des algorithmes et des protocoles d’apprentissage.

Pour illustrer ce point, nous pouvons considérer l’exemple des moteurs de recherche qui exhibent constamment un comportement biaisé en fonction du sexe. Dans le moteur Bing de Microsoft, des requêtes textuelles telles que “asian girls » renvoient des contenus visuels hyper-sexualisés, tandis que l’équivalent masculin, “asian boys », renvoie principalement des photos normales de garçons d’origine asiatique.
Un autre exemple courant est celui des logiciels de reconnaissance faciale qui, bien qu’ils affichent des performances prédictives très élevées, présentent comparativement un taux d’erreur beaucoup plus important lorsqu’il s’agit d’identifier des personnes de couleur.
Si cette anomalie particulière est acceptable dans certains scénarios, elle peut avoir des répercussions dévastatrices dans d’autres applications où les enjeux sont importants, comme les pratiques des forces de l’ordre, telles que la vidéosurveillance. En fin de compte, ce type d’utilisation de l’IA deviendra une question de droits de l’homme justifiant une surveillance législative.

Le Dilemme du Tramway dans les Véhicules Autonomes

Alors que de plus en plus de voitures autonomes prennent la route, la conception des logiciels et des algorithmes qui contrôlent ces véhicules suscite davantage d’inquiétudes. Une situation particulièrement débattue fait penser au dilemme du tramway, où il faut faire le choix de sacrifier une personne pour en sauver un plus grand nombre. L’analogue d’une telle situation dans la vie réelle se produit lorsqu’une collision imminente et potentiellement mortelle ne peut être évitée, et que le système de décision de la voiture doit choisir s’il faut privilégier la sécurité des occupants de la voiture par rapport à celle des personnes à l’extérieur, ou vice-versa.

Quelle est donc la bonne marche à suivre pour une voiture autonome dans cette situation ? Et en quoi cette décision doit-elle être différente lorsque l’objet de la collision est un piéton (c’est-à-dire que le risque de mort est plus élevé) plutôt qu’un autre véhicule ou obstacle ? Et si c’était un enfant ?

Naturellement, la philosophie détient la clé pour trouver certaines réponses à ces dilemmes. Par exemple, l’utilitarisme est un ensemble de théories éthiques normatives qui encouragent les décisions qui maximisent l’utilité, l’utilité pouvant être considérée comme le bonheur ou le bien-être des individus. Dans l’exemple d’un accident inévitable, l’utilitarisme prescrirait de sacrifier la minorité pour le bien de la majorité. Toutefois, il convient de noter que même les théories établies comme l’utilitarisme font l’objet de critiques sur différents aspects allant de la définition de l’utilité elle-même au type d’agrégat qui devrait être maximisé (par exemple, l’utilité moyenne, l’utilité totale, l’utilité minimale, etc.)

À l’heure actuelle, nous avons plus de questions éthiques que de réponses, et pour empirer les choses, d’autres facteurs économiques très influents entrent en jeu également. Par exemple, comment un constructeur automobile peut-il espérer commercialiser son véhicule autonome alors que le client sait parfaitement qu’en cas d’accident, sa propre voiture mettra sa vie en péril au profit des piétons et des personnes extérieures. Cela signifie-t-il que la décision est déjà implicitement imposée, et qu’il ne nous reste que l’illusion d’un choix ?

La Créativité Artificielle

Il existe une catégorie d’algorithmes d’apprentissage automatique appelés modèles génératifs, capables de générer de nouvelles données selon une approximation du processus inconnu qui a généré les exemples d’apprentissage. Il n’a pas fallu longtemps pour que ce type de modélisation soit appliqué aux signaux audio, texte, image et vidéo, ouvrant ainsi la voie à l’émergence du concept de créativité artificielle.

Dans le monde des arts, une IA générative peut être entraînée sur des centaines de peintures appartenant à un artiste afin d’apprendre à réaliser de nouvelles peintures qui incorporent le style, le processus créatif et l’identité artistique dudit artiste. En 2016, un modèle d’apprentissage profond a été capable de créer un chef-d’œuvre surnommé « the Next Rembrandt », d’après Rembrandt, l’auteur original des peintures utilisées pour l’apprentissage, plusieurs siècles après sa mort.

Une fois l’effet de surprise estompé, la question qui vient immédiatement à l’esprit est de savoir qui doit être désigné comme l’auteur d’une telle création ? Est-ce l’IA elle-même ? L’équipe d’ingénieurs qui a créé et entrainé le modèle ? Ou est-ce l’artiste original dont le travail antérieur a servi à l’apprentissage ? Au demeurant, ce problème ne se limite pas au monde des arts, mais peut également s’étendre à d’autres domaines liés à la créativité. Par exemple, en 2019, l’Office Européen des Brevets (OEB) a rejeté une demande de brevet dans laquelle une IA était désignée comme l’inventeur. Cet incident a suscité un intérêt pour la définition conventionnelle d’un auteur au sens de la propriété intellectuelle, et son incapacité à répondre aux attentes des temps modernes. Dans ce cas, comment pouvons-nous actualiser notre définition du terme « auteur » de manière à rendre justice à toutes les parties concernées : l’IA, les personnes qui ont créé l’IA et la source/auteur des données d’entraînement ?

En outre, l’art de l’IA est-il une menace pour les artistes humains ou un catalyseur permettant de repousser les limites de la créativité humaine ? Ces questions méritent un examen attentif car elles peuvent nous aider à mieux comprendre la nature de l’implication de l’IA dans le travail créatif, à distinguer le plagiat de l’originalité et à préserver la valeur de l’art dans le secteur culturel.

Accusé, levez-vous! L’AI dans le Tribunal

Un autre cas intéressant d’application de l’IA se trouve dans les tribunaux, où les systèmes judiciaires utilisent des algorithmes pour évaluer les cas, remplaçant essentiellement le juge humain. L’adoption croissante de la technologie de l’intelligence artificielle dans des domaines allant de la police prédictive à la condamnation produit une valeur tangible certes, principalement sous la forme d’un gain de temps, mais elle soulève également une série de questions éthiques qui méritent d’être explorées.

Le système judiciaire est lent, et cela peut être attribué à plusieurs facteurs, notamment la nature complexe des processus juridiques, le volume élevé de dossiers juridiques et le manque d’installations, pour n’en citer que quelques-unes. Cela crée une opportunité pour l’utilisation de l’apprentissage automatique à des fins d’automatisation des tâches répétitives et chronophages pour accélérer la roue. En 2019, la Chine a dévoilé son premier juge artificiel; un personnage féminin numérique doté d’un corps, d’une voix, d’actions et d’expressions faciales pour gérer les tâches répétitives de base dans un nouveau service de litiges en ligne. Les juges ne sont toutefois pas la seule cible de ces solutions.
Les algorithmes et les outils d’analyse de données sont également utilisés au profit des cabinets d’avocats, pour accélérer la recherche juridique et miner des informations précieuses sur les affaires en cours. Et pour ceux qui n’ont pas les moyens d’engager un avocat, DoNotPay est là pour sauver la mise. Ce premier robot-avocat autoproclamé est un conseiller juridique doté d’une intelligence artificielle qui peut assister dans les affaires relevant des cours de petites créances.

L’un des arguments les plus importants utilisés pour défendre l’utilisation de l’IA dans les affaires juridiques est la capacité de cette technologie à être “neutre » dans son jugement. Mais savons très bien que l’IA est tout sauf neutre, étant donné qu’elle souffre de biais intégrés et de comportements discriminatoires, reflétant essentiellement nos propres préjugés, comme nous l’avons expliqué précédemment.
Un autre problème imposant est le manque de transparence des algorithmes d’apprentissage profond, qui sont très souvent considérés comme une boîte noire. Même si ces réseaux neuronaux sont très performants, ne pas comprendre le pourquoi de leurs prédictions pose problème, tout simplement parce que nous ne pouvons pas nous permettre de faire aveuglément confiance à une machine lorsque l’avenir d’une personne est en jeu, ni d’accepter un jugement sans comprendre quels facteurs ont contribué à cette décision.
Enfin, l’entraînement de ces modèles s’appuie sur des protocoles de collecte de données pour constituer des ensembles de données massifs, ce qui soulève également des problèmes de confidentialité.

Désinformation et Fake News

« It is only when they go wrong that machines remind you how powerful they are. » 
Clive James

La désinformation a toujours été utilisée comme une arme politique pour manipuler les peuples. Aujourd’hui, elle est encore amplifiée par l’essor des modèles spécialisés d’apprentissage profond qui peuvent produire un nouveau texte, trafiquer des images, ou même falsifier des discours. Ces algorithmes ont atteint un niveau d’avancement où un humain parviendrait difficilement à distinguer leurs créations de signaux réels.
Le modèle GPT-3 d’OpenAI, qui signifie Generative Pre-trained Transformer, est un énorme réseau de neurones qui a été entraîné sur un corpus massif de textes afin de capturer les régularités statistiques du langage naturel. Le modèle pouvait ensuite être facilement utilisé pour générer des paragraphes de texte après avoir reçu quelques mots initiaux.
Il n’a pas fallu longtemps pour que GPT-3 soit exploité pour produire toutes sortes de fake news, les unes aussi plausibles que les autres, ce qui a déclenché de nombreuses sonnettes d’alarme concernant cette horrible utilisation de la technologie et ses éventuelles répercussions.
En ce qui concerne les images et les vidéos, un développement récent de la recherche sur l’apprentissage profond a permis de falsifier des vidéos en remplaçant le visage d’une personne source dans une vidéo par le visage d’une personne cible dans une image.
Cette technologie, appelée DeepFake, nous permet essentiellement de mettre de nouveaux mots dans la bouche d’une personnalité publique, de jouer la star dans notre film préféré ou d’accomplir toute autre application que vous pouvez imaginer. Et si ce n’était pas suffisant, elle peut également s’étendre aux signaux audio, ce qui permet de tromper facilement des personnes au téléphone.
En 2019, un criminel a utilisé un deepFake pour imiter la voix du PDG d’une entreprise énergétique allemande afin d’exiger un virement bancaire frauduleux de 220 000 €, dans ce qui serait le premier cybercrime de l’histoire basé sur l’IA. Bien que techniquement intrigants, les DeepFakes introduisent une nouvelle série de problèmes sociaux, car ils discréditent complètement l’ouïe et la vue, les deux sens les plus fiables sur lesquels les humains s’appuient pour prendre des décisions.
Ces modèles d’apprentissage profond peuvent être utilisés contre les femmes en intégrant synthétiquement leur visage dans du contenu pornographique, piéger quelqu’un en le plaçant sur la scène d’un crime qu’il n’a pas commis ou diffuser une fausse déclaration de guerre du président d’une nation puissante.

La prolifération de la désinformation sur l’internet est devenue un fléau alarmant qui exige une attention immédiate. Le processus fastidieux de création de faux contenus multimédias, autrefois réservé aux experts, est désormais accessible au public et sans aucun pré-requis. Les plateformes de réseaux sociaux sont parmi les parties les plus concernées, car elles constituent le principal moyen de communication incontrôlé qui permet aux fake news de devenir virales. C’est pourquoi Google, Facebook, Twitter et d’autres géants de la technologie mènent une guerre contre la désinformation et la propagande dangereuse, mais leurs efforts ont jusqu’à présent eu des effets limités.

Nous avons voulu couvrir certains dilemmes et problèmes courants liés à l’utilisation éthique et responsable de l’IA, et inciter le lecteur à faire des réflexions à ce sujet. La sensibilisation à l’importance de l’éthique à l’horizon d’une nouvelle société augmentée par l’IA ne cesse de gagner en importance. Alors que les chercheurs, les technologues, les autorités, les philosophes et les décideurs politiques unissent leurs forces pour réglementer l’utilisation de l’IA, nous restons optimistes quant au jour où l’éthique fera partie intégrante du développement et de l’utilisation de cette technologie. Après tout, Il le faut : la vie et les moyens de subsistance de millions de personnes en dépendent.