Bien que le monde ait commencé à reconnaître le terme “intelligence artificielle” lors d’une conférence au Dartmouth College dans les années 1950, les questions éthiques entourant ses développements ont nécessité des décennies pour se cristalliser et évoluer. Ces questions ont été directement proportionnelles à la croissance et à la diffusion des applications de l’IA, depuis les premières tentatives simples jusqu’à ce moment présent où les humains interagissent avec “ChatGPT” et ses versions successives.

Pour ceux qui travaillent dans le secteur technologique, tant dans l’industrie que dans l’innovation, il y a deux aspects à la question des “éthiques”. D’une part, un groupe appelle à soumettre les développements attendus à une étude éthique avant de les appliquer, faisant de ces considérations une norme gouvernante, insistant même sur une “pause dans la gouvernance des applications pour s’assurer qu’elles ne nuisent pas aux humains”. D’autre part, cependant, cela pourrait “perturber ou pousser les développeurs à régresser”, selon un autre groupe.

Les experts et les universitaires s’accordent sur l’importance et la nature vitale des applications de l’intelligence artificielle, ainsi que sur le bien-être et les avantages qu’elles ont procurés à de nombreuses vies. Pourtant, ils soutiennent la nécessité d’établir des lignes directrices éthiques “pour maîtriser les programmes automatisés sans que ces critères deviennent une épée au-dessus du cou de l’IA”.

En mars de l’année dernière, des développeurs de technologies et des spécialistes de l’IA ont signé une pétition appelant à un “arrêt de six mois sur la recherche en développement d’IA pour permettre plus de gouvernance de cette activité afin de garantir qu’elle ne nuit pas aux humains”.

Cette pétition, préparée par l’Institut pour l’avenir de la vie sans but lucratif, a recueilli près de 3 000 signatures de scientifiques et d’entrepreneurs, soulevant des craintes que “la course entreprise par les laboratoires d’IA pour développer et déployer des esprits numériques plus puissants pourrait sortir de leur contrôle, rendant impossible pour quiconque, y compris leurs créateurs, de les comprendre ou de les gérer de manière fiable”.

Recommandations de l’ONU

Malgré les avantages que l’IA présente pour l’humanité, tels que le diagnostic des maladies et la prévision des changements climatiques, ses défis éthiques — y compris certains algorithmes biaisés sur la base du genre et de la race, et les menaces potentielles à la vie privée — ont poussé l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO) à adopter “le premier accord mondial sur des recommandations concernant l’éthique de l’IA” en novembre 2021. Cela inclut quatre recommandations : la première souligne la “protection des données”, avec des mesures pour protéger les données des individus et leur droit de les contrôler. La deuxième appelle à un “interdiction de l’utilisation des systèmes d’IA pour la surveillance de masse”, veillant à ce que la responsabilité ultime de toute tâche reste humaine, empêchant les technologies de l’IA d’être considérées comme des entités légales. La troisième soutient “l’utilisation efficace des données, de l’énergie et des ressources dans l’IA”, visant à cibler les interventions dans les problèmes environnementaux. La quatrième recommande d’établir un “mécanisme pour évaluer les implications éthiques de l’IA”.

Appels continus

Les préoccupations entourant l’IA “sont aussi anciennes que le concept lui-même, mais la montée des chatbots comme ChatGPT les a rapprochées de la réalité”, déclare José Delgado, spécialiste en psychologie expérimentale à l’Université de Grenade, Espagne.

Les écrivains, penseurs, philosophes et scientifiques ont tous reconnu la nécessité d’une éthique de l’IA. L’écrivain américain Vernor Vinge a remarqué en 1983 que l’ “existence future de l’humanité pourrait dépendre de l’implémentation de normes éthiques solides dans les systèmes d’IA puisque ces systèmes, à un moment, pourraient correspondre ou remplacer les capacités humaines”.

En 2018, le philosophe suédois Nick Bostrom a averti des dangers potentiels de la supériorité technologique si des machines intelligentes se retournaient contre leurs créateurs — les humains — soulignant la nécessité de construire un “IA amicale”.

Les scientifiques se sont joints aux penseurs pour mettre en garde contre les craintes éthiques. Notamment, la scientifique américaine en informatique Rosalind Picard a déclaré en 1997 que “plus une machine a de liberté, plus elle a besoin de normes éthiques”.

De retour à Delgado, il n’exprime aucun doute sur le fait que ChatGPT surmontera ses erreurs, croyant que “l’apprentissage automatique pourrait le conduire à devenir plus intelligent que l’humain, posant ainsi un danger lorsque l’IA est employée en collaboration avec des travailleurs humains”.

Il souligne donc la nécessité pour “les humains de maintenir un contrôle total et une responsabilité sur le comportement et les résultats des systèmes d’IA”. Il attribue les incidents analysés au cours des dernières années — comme le crash du train Alvia en Espagne en 2013, le vol Air France 447 en 2009 et le vol Asiana Airlines 214 en 2013 — à une emprise excessive de l’IA, déclarant que les chercheurs ont constaté que la cause fondamentale résidait dans le fait que les stratégies de contrôle utilisant l’IA étaient différentes de celles employées par les opérateurs humains.

Le défi, tel que défini par Delgado concernant les interactions humain-IA, est que “pour améliorer une relation morale et juste entre les humains et les systèmes d’IA, les interactions doivent être fondées sur le principe fondamental du respect des capacités cognitives humaines”.

L’Humain exceptionnel

Ce défi précédemment mentionné ne contredit pas un autre que Ozlem Garibay, professeur adjoint au département d’intelligence artificielle et de gestion des systèmes à l’Université de Californie, qui considère “l’IA responsable” comme étant un soutien au bien-être humain d’une manière qui soit en accord avec les valeurs humaines.

Garibay a déclaré : “Dans le cadre de ce défi, les robots intelligents peuvent offrir des solutions médicales pour certaines formes de handicap, mais il ne devrait pas être question d’une ‘déification de la technologie’ pour construire l’ ‘humain exceptionnel ou supérieur’ en améliorant certaines caractéristiques ou en renforçant la mémoire par exemple, en utilisant des puces électroniques”.

Une autre dimension a été soulignée par Marc-Antoine Delac, professeur adjoint spécialisé en éthique et philosophie politique à l’Université de Montréal, dans un article publié dans le bulletin de l’UNESCO en mars 2018, attirant l’attention sur “les logiciels déjà appliqués dans de nombreux pays pour déterminer ‘le comportement terroriste’ ou ‘la personnalité criminelle’ des individus en utilisant la technologie de reconnaissance faciale.” Il a noté que des chercheurs de l’Université de Stanford avaient été alarmés par “ce renouveau de la théorie de la physiognomonie qui analyse les individus en fonction de leurs traits faciaux et de leurs expressions.”

Cependant, la physiognomonie biaisée n’était pas seulement une mesure préventive de sécurité, car les applications de recrutement en reflètent également une partie. Une étude de la MIT Technology Review en février 2022 a révélé que des plateformes comme LinkedIn tentaient “d’éliminer certains de leurs logiciels d’entretien qui étaient biaisés contre les personnes en situation de handicap et les candidates féminines”.

Préoccupations concernant la militarisation

Yoshua Bengio, un éminent scientifique canadien en informatique et lauréat du prix Turing 2018 (considéré comme le prix Nobel de l’informatique), a déclaré qu’il était nécessaire de “prévenir la conception de systèmes d’IA comportant des risques extrêmement élevés, comme les systèmes capables d’utiliser des armes”.

Bengio a ajouté que “les systèmes d’IA peuvent apporter d’énormes bénéfices pour l’humanité, notamment dans le domaine de la santé, mais d’un autre côté, des systèmes pourraient être développés qui utilisent des armes, ce qui doit être prohibé”.

Parmi les autres défis à relever figure la nécessité de “sécuriser la vie privée”, en veillant à ce qu’elle ne soit pas violée par les systèmes d’IA. C’était l’une des raisons qui ont poussé l’Italie à interdire ChatGPT, suivie par l’Espagne et la France.

Le “Conseil Européen de Protection des Données” a annoncé la création d’une équipe pour renforcer l’échange d’informations concernant d’éventuelles mesures à prendre à l’égard de ChatGPT, affirmant soutenir “les technologies innovantes en matière d’IA”, mais en soulignant qu’elles “doivent toujours être conformes aux droits et libertés des personnes”.

L’application “ChatGPT” collecte des données personnelles et les traite pour entraîner ses algorithmes, ce que Domenico Talia, professeur d’ingénierie informatique à l’Université de Calabre, décrit comme “une violation évidente de la vie privée”.

Talia ajoute : “Je suis en faveur de cette application et de ses avantages pour la vie humaine, mais en même temps, je n’accepte pas que mes données personnelles soient collectées lorsque j’interagis avec elle”.

Traités internationaux

Bengio considère que les défis posés par l’IA doivent être abordés dans le cadre de lois et de législations applicables, et non à travers l’auto-régulation, comparant cela à “la conduite, que ce soit du côté gauche ou droit de la route, où tout le monde doit conduire de la même manière, sinon nous serons dans une situation critique”.

Il note qu’un “projet de loi concernant l’IA” est en préparation dans l’Union européenne, et qu’une loi sera prochainement adoptée au Canada, mais cela ne réduit pas le besoin de traités internationaux similaires à ceux établis concernant les “risques nucléaires” ou le “clonage humain”.

Bien qu’UNESCO ait publié ses recommandations sur les défis éthiques de l’IA il y a moins de deux ans, plus de 40 pays travaillent avec l’organisation pour développer des “équilibres et des contrôles pour l’IA au niveau national”.

L’organisation a appelé tous les pays à rejoindre son initiative pour construire une “IA éthique”, indiquant dans un communiqué publié le 30 mars dernier qu’un rapport intermédiaire sera présenté lors du “Forum Mondial UNESCO sur l’Éthique de l’IA” en Slovénie en décembre prochain.

Le Centre Leverhulme : L’appel de Stephen Hawking à humaniser l’IA

“Il est probable que l’intelligence artificielle soit la meilleure ou la pire chose qui puisse arriver à l’humanité, donc il y a une immense valeur à la corriger”, c’est par cette déclaration que le célèbre scientifique britannique Stephen Hawking (1942-2018) a tenté de résumer son appel à “humaniser l’IA”.

Les propos de Hawking prononcés lors de l’inauguration du “Centre Leverhulme pour l’avenir de l’IA” à l’Université de Cambridge (en 2016) reflètent un aspect de la mission du centre qui se concentre sur “l’avenir de l’intelligence artificielle”, tout en mettant l’accent sur la dimension humaine dans ses intérêts et ses publications de recherche.

Les recherches publiées par le “Centre Leverhulme” rassemblent des académiciens de disciplines diverses telles que “l’apprentissage automatique, la philosophie, l’histoire, l’ingénierie, et d’autres” dans le but d’ “explorer le potentiel de l’intelligence artificielle à court et à long terme et de garantir son utilisation au profit de l’humanité”, un objectif que le professeur Hawking avait souligné lors de l’ouverture du centre, financé par une subvention de 10 millions de livres sterling.

De plus, Stephen K. a déclaré, lors de la cérémonie d’ouverture, que “nous avons besoin d’une intelligence artificielle qui nous aide à prendre de meilleures décisions, et non pas qui nous remplace”, ajoutant qu’il faut s’assurer que “les systèmes artificiellement intelligents aient des objectifs en accord avec les valeurs humaines et veiller à ce que les ordinateurs ne se développent pas automatiquement dans des directions indésirables”.

Dans les recherches les plus récentes du “Centre Leverhulme”, les spécialistes ont cherché à “surveiller les biais de genre masculin en créant un stéréotype culturel autour de la domination masculine dans le domaine de l’intelligence artificielle”, une situation qui pourrait conduire, selon leurs estimations, à “un manque accru de femmes travaillant dans le domaine, de plus à un transfert de biais dans les algorithmes créés, par exemple, pour sélectionner les nouveaux employés dans n’importe quelle institution”.

Lors d’une étude publiée le 13 février dernier dans la revue “Public Understanding of Science”, les chercheurs du “Centre Leverhulme” ont recensé 142 œuvres cinématographiques au cours d’un siècle (1920-2020) sur le thème de l’intelligence artificielle, identifiant 116 personnages apparaissant comme professionnels dans le domaine, parmi lesquels 92 % étaient des hommes, tandis que le pourcentage réel d’hommes dans le secteur est d’environ 78 %. Les chercheurs expriment leurs craintes que la science-fiction façonne la réalité et puisse aider à “enraciner cette situation à travers le cinéma, marginalisant ainsi les femmes dans les produits de l’intelligence artificielle”.

Un autre projet de recherche lancé par le centre entre 2018 et 2022, intitulé “Narratives mondiales de l’intelligence artificielle”, a cherché à examiner les récits fictifs entourant l’IA, à identifier les valeurs et intérêts qui la dirigent, et à analyser leur impact sur l’imaginaire public et l’acceptation générale, ainsi que sur les décideurs et les gouvernements.

Did you enjoy this article? Feel free to share it on social media and subscribe to our newsletter so you never miss a post! And if you'd like to go a step further in supporting us, you can treat us to a virtual coffee ☕️. Thank you for your support ❤️!

Categorized in: