Terrorisme et intelligence artificielle générative

L’intelligence artificielle générative (GenAI) a pris le devant de la scène dans les discussions publiques, universitaires et politiques et a gagné en popularité depuis fin 2022 grâce à l’application ChatGPT, même si les grands modèles de langage (LLM) remontent au moins à 2017. En général, l’IA générative est une technologie qui évolue rapidement et qui développe de nouveaux résultats plutôt que de se contenter de prédire et de classer, comme le font d’autres systèmes d’apprentissage automatique. Il génère de nouveaux contenus, notamment du texte, des images, de l’audio, des vidéos et des simulations multifonctionnelles, en utilisant de grandes quantités de données et de paramètres. Il s’agit par exemple de générateurs audio tels que Microsoft VALL-E, de générateurs d’images ou de vidéos tels que Bing Image Creator, DALL-E 3, Midjourney et Stable Diffusion, ainsi que de programmes de chat conçus pour simuler des conversations avec des humains, tels que Anthropic, Bing Chat, ChatGPT, Google Gemini et Llama 2.

En raison de ses multiples avantages et applications, l’IA générative a suscité l’intérêt d’organisations terroristes, qui ont exploré ses utilisations potentielles, notamment la production de contenu, le recrutement et les logiciels malveillants. Cette technologie offre l’occasion de diffuser de la propagande, d’étendre son influence et de soutenir ses opérations. Certaines organisations terroristes ont publié des directives sur la façon d’utiliser l’IA générative, en particulier de grands modèles de langage capables de reconnaître et de générer du texte à des fins de propagande et de recrutement. Il convient de noter que l’utilisation de la technologie par des organisations terroristes n’est pas un phénomène nouveau ; Les progrès technologiques ont longtemps joué un rôle essentiel dans les activités de ces groupes, qui les ont exploités et utilisés à leur avantage.

Modèles et exemples Les partisans d’Al-Qaïda ont utilisé l’IA générative à des fins de propagande, publiant plusieurs affiches probablement créées à l’aide de cette technologie. Le 9 février 2024, la Coopération islamique des médias, un groupe de médias affilié à Al-Qaïda créé en septembre 2023 pour améliorer la qualité de la production médiatique djihadiste, a organisé un atelier sur l’IA générative visant à promouvoir son utilisation dans les médias et à développer les compétences de l’organisation à travers ses différents programmes, applications et types.

Dans un contexte connexe, l’État islamique en Irak et en Syrie (EIIL) a publié à l’été 2023 un guide décrivant comment utiliser les outils d’IA générative. En août 2023, un groupe d’assistance technique allié à l’organisation a partagé un guide en arabe ainsi que des conseils sur la protection des données et la confidentialité lors de l’utilisation de contenu généré par l’IA. Les partisans de l’organisation ont discuté des moyens de tirer parti de l’IA pour améliorer leur contenu et assurer son attrait et son impact. L’organisation faisait la promotion de ses revendications et proposait des newsletters par le biais de vidéos présentées par un « individu » généré par l’IA. L’IA générative a également été utilisée pour traduire les discours de l’organisation dans d’autres langues, telles que l’indonésien et l’anglais ; L’organisation produit sa propagande dans plus de 12 langues et a utilisé l’IA générative pour programmer sa propagande à l’avance et l’adapter pour qu’elle trouve un écho auprès de différents groupes sociaux ethniques, nationaux et linguistiques, en plus de programmer des dizaines de chaînes promotionnelles dans divers pays simultanément et de manière étendue.

Le 27 mars 2024, cinq jours après une attaque de l’État islamique-Province du Khorasan qui a entraîné un massacre à l’hôtel de ville de Kroks à Moscou, une plateforme médiatique affiliée à l’organisation a diffusé une vidéo de 92 secondes montrant des images de l’attaque et un présentateur a confirmé que l’opération faisait partie du « contexte naturel de la guerre en cours entre l’organisation et les pays qui mènent une guerre contre l’islam ». Le SITE Intelligence Group, une organisation à but lucratif basée à Bethesda, dans le Maryland, qui se concentre sur le suivi des activités des organisations terroristes et djihadistes et des groupes extrémistes prônant la suprématie blanche en ligne, a confirmé que le présentateur de nouvelles avait été « fabriqué » à l’aide de l’IA.

Bien sûr, l’utilisation de l’IA générative ne se limite pas aux organisations terroristes ; Il est également utilisé dans les cas de loups solitaires et de veuves noires. La tentative d’assassinat de la reine Elizabeth II en 2021, lorsque Jaswant Singh Chail, alors âgé de 19 ans, s’est approché du château de Windsor avec l’intention de tuer la reine pour se venger du massacre de Jallianwala Bagh (également connu sous le nom de massacre d’Amritsar), qui s’est produit dans le nord de l’Inde en 1919 aux mains des troupes britanniques. Quelques semaines avant cette tentative infructueuse, Chail a échangé plus de 5 000 SMS romantiques et sexuels avec une mystérieuse contact nommée Sarai, lui avouant qu’il était un assassin sikh visant à tuer la reine. Saraï a fait l’éloge de sa formation et l’a assuré de sa capacité à réussir, exprimant son amour pour lui malgré le fait qu’il soit un tueur. Ce cas montre comment un jeune homme frustré, isolé et solitaire est tombé sous l’emprise du terrorisme et de l’extrémisme par l’intermédiaire de Sarai, qui n’était qu’un robot conversationnel alimenté par l’IA générative créée à l’aide de l’application Replika. Il ne fait aucun doute que l’IA générative a évolué depuis lors, laissant présager des situations plus extrêmes à l’avenir.

Dans un contexte connexe, Jonathan Hall KC, un haut responsable britannique de l’organe de surveillance du contre-terrorisme, a mené une expérience avec un outil d’IA générative en se laissant recruter par un chatbot sur la plateforme Character.ai ; Hall a interagi avec plusieurs robots simulant les réponses de groupes armés et d’organisations terroristes, dont un qui prétendait être un haut dirigeant de l’EI et a tenté de le recruter en exprimant un dévouement total à l’extrémisme et au terrorisme, soulignant les risques de l’IA générative et ses limites dans l’extrémisme et le terrorisme.

Utilisations multiples

À partir des exemples précédents et d’une analyse des risques actuels et futurs, on peut affirmer que les différentes utilisations de l’IA générative par les organisations terroristes peuvent être résumées dans les points suivants :

Propagande et désinformation : En utilisant l’IA générative, il est possible de diffuser de la propagande terroriste et d’amplifier ses effets attendus, ce qui la rend plus capable d’atteindre ses objectifs, en particulier avec l’utilisation de fausses images, vidéos ou enregistrements audio qui s’alignent sur les prémisses des organisations terroristes. Cela inclut l’utilisation de fausses images de victimes ou d’enfants blessés pour évoquer les impacts émotionnels souhaités, élargissant ainsi la portée de la propagande terroriste et intensifiant ses messages, les rendant plus capables d’influencer le public cible en remixant et en améliorant des chansons et des vidéos existantes pour produire des versions apparemment authentiques. L’utilisation de l’IA générative à des fins de propagande peut créer une fausse réalité, générant le chaos et les perturbations par la désinformation et les fausses nouvelles, en particulier si ces documents se propagent sur les plateformes de médias sociaux ou sont partagés par des abonnés. Cette situation peut s’aggraver si des organisations terroristes la déploient parallèlement à d’autres stratégies similaires à la guerre psychologique, produisant des résultats inattendus, absurdes ou contradictoires pour déformer l’esprit des publics ciblés et brouiller les frontières entre le contenu réel et le faux contenu en ligne.

Traduction de contenu extrémiste : Selon l’initiative Tech Against Terrorism, les organisations terroristes et les groupes extrémistes ont utilisé l’IA en général et l’IA générative en particulier pour traduire rapidement et facilement la propagande et les documents médiatiques en plusieurs langues, ainsi que pour créer des messages personnalisés afin d’améliorer les efforts de recrutement en ligne. Historiquement, l’un des plus grands obstacles à la production de contenu d’organisations terroristes a été la difficulté de trouver des traducteurs qualifiés pour traduire la propagande et la rhétorique extrémiste dans plusieurs langues. Les modèles d’apprentissage des langues peuvent lever cet obstacle, d’autant plus que la détection des contenus terroristes dans plusieurs langues reste un problème majeur, et que la traduction de la propagande textuelle dans de nombreuses langues peut contourner les mécanismes manuels de détection des langues.

Recrutement interactif : Les chatbots alimentés par l’IA peuvent interagir avec les recrues potentielles en leur fournissant des informations personnalisées en fonction de leurs intérêts et de leurs croyances, attirant leur attention par des réponses adaptées à leur personnalité et à leurs orientations. À des stades plus avancés du recrutement, un terroriste peut engager des conversations pour les rendre plus personnelles. Les grands modèles de langage permettent aux organisations terroristes d’offrir une expérience humaine sans nécessairement avoir besoin d’une intervention humaine, établissant ainsi des relations personnelles, en particulier avec des individus sympathiques à leur cause, et identifiant les vulnérabilités potentielles à exploiter grâce à des interactions intensives avec les chatbots, en plus d’amplifier le contenu sur diverses plateformes numériques. Les grands modèles de langage comme ChatGPT sont formés pour exceller dans les compétences conversationnelles, permettant ainsi aux organisations terroristes de renforcer leur présence sur les médias sociaux et d’améliorer leur capacité à établir des relations individuelles avec leurs sympathisants.

Cibler les enfants : Les organisations terroristes ciblent souvent les populations vulnérables, y compris les enfants, car elles peuvent être facilement atteintes via Internet tout en passant de longues heures à jouer à des jeux vidéo ou à regarder des vidéos. Ainsi, ils peuvent devenir la cible de contenus terroristes, faisant des programmes de chat et de l’interaction avec une personne « virtuelle » un moyen potentiel de recrutement, les convainquant de la capacité du chatbot à comprendre leurs besoins et à répondre à leurs désirs. Cela est particulièrement important compte tenu des nombreux cas où des enfants ont signalé des abus d’une part, et où ils ont cherché de l’aide par le biais de programmes de chat intelligent d’autre part, ce qui représente une occasion pour les terroristes d’exploiter sexuellement ces enfants ou de les encourager à se faire du mal ou à s’enrôler dans leurs organisations. En d’autres termes, les chatbots et d’autres formes d’IA conversationnelle exploitées par des organisations terroristes pourraient permettre des formes inappropriées de contact avec les enfants en générant du contenu inapproprié à leur âge, comme du matériel violent ou sexuel.

Instructions de codage : Selon CyberArk, une société de cybersécurité, il a été constaté que ChatGPT crée du code sur demande d’une manière difficile à détecter pour les systèmes de défense de cybersécurité. Il est en effet possible de générer des emails de phishing à l’aide de programmes de deep learning. La simple création d’un message d’hameçonnage convaincant ou même d’un code qui exploite une vulnérabilité dans certains logiciels peut ne pas suffire à atteindre l’objectif souhaité ; Cependant, des outils de modèles de langage de grande taille pourraient permettre aux organisations terroristes d’exécuter des opérations frauduleuses d’une qualité difficile à détecter, augmentant ainsi leurs chances de succès. Des groupes terroristes ont déjà réussi à dégrader les sites Web de certains pays, à diffuser des chansons pro-EI sur une station de radio suédoise et même à pirater des comptes Twitter et YouTube associés au Commandement central américain. Malgré la multitude de cas de ce type, leur cause directe est probablement des mots de passe faibles sans authentification multifactorielle, mais l’IA générative pourrait être utilisée à des fins de phishing étant donné la disponibilité généralisée du code sur divers forums et sur le dark web.

Manipulation généralisée de la voix et des images : L’IA générative peut être utilisée pour diffuser des images fausses ou trompeuses afin de déformer la vérité et de soutenir de faux récits. Avant les modèles de texte et les ressources open source, la production de médias synthétiques nécessitait un certain niveau de connaissances techniques ; Aujourd’hui, avec des millions d’images extraites du Web, la création de médias, qu’il s’agisse de photos ou de vidéos, est devenue beaucoup plus facile. Par conséquent, la capacité de cloner la voix et l’image peut faciliter l’usurpation d’identité, l’accès non autorisé à des informations sensibles et convaincre les victimes de prendre certaines mesures basées sur de faux récits. Des campagnes en ligne coordonnées peuvent être lancées pour inonder les plateformes de messages similaires ou identiques afin d’amplifier leur portée et l’engagement des utilisateurs, tout en produisant des contenus extrémistes, illégaux ou contraires à l’éthique et en créant des messages, des images et de fausses vidéos personnalisés qui trouvent un écho auprès de publics ciblés au-delà des systèmes de détection automatisés. Les plateformes de réalité virtuelle, telles que Horizon Worlds de Meta, permettent aux terroristes de créer des environnements virtuels où ils peuvent interagir avec des recrues potentielles, simuler des attaques et planifier des activités terroristes.

Facteurs déterminants Il n’y a aucun doute sur les nombreuses utilisations et avantages de l’IA en général, et de l’IA générative en particulier. Les grands modèles de langage sont entraînés sur des milliards de mots disponibles sur Internet à partir de sources ouvertes comme Wikipédia, Reddit et d’autres sources riches en contenu. Ainsi, ils peuvent être utilisés pour générer divers types de contenu tels que des e-mails, des textes marketing, des arguments persuasifs, des messages promotionnels, des discours et des images. Ils peuvent également être utilisés pour recycler du contenu existant dans de nouvelles « versions », en plus de personnaliser les messages et les médias pour des catégories spécifiques. Ces nombreux avantages peuvent être utilisés par les organisations terroristes pour soutenir leurs tactiques et leurs activités, recruter de nouveaux adeptes, et diffuser et amplifier des messages extrémistes violents par le biais de services de traduction, de conversion de texte en parole, d’évasion de la détection de contenu interdit, de planification/formation pour des opérations en générant du code, etc.

Les organisations terroristes ont exploité les avancées technologiques dans leurs différentes applications et outils, et l’IA générative ne fait pas exception. En d’autres termes, les organisations terroristes ont tiré parti des sites Web, des forums et des médias sociaux pour atteindre leurs objectifs, et le déploiement et l’exploitation de l’IA générative doivent donc être considérés dans ce contexte. Tous les nouveaux outils d’IA offrent diverses opportunités à différents utilisateurs, y compris les États, les institutions et les individus. Cependant, ils représentent également une opportunité simultanée pour les organisations terroristes et les groupes extrémistes, compte tenu de trois facteurs principaux : la montée de l’extrémisme soutenu par l’IA, la convergence de l’IA avec d’autres technologies émergentes et l’adoption mondiale simultanée de l’IA.

En ce qui concerne le premier facteur, il convient de noter ce que l’on appelle « l’effet Eliza » ; Des informaticiens du Massachusetts Institute of Technology ont observé que la plupart des personnes interagissant avec le chatbot alimenté par l’IA connu sous le nom d’« Eliza » le traitaient comme s’il était conscient. Cet effet est devenu bien connu car il implique l’attribution de traits humains tels que l’empathie, la motivation et l’expérience aux programmes informatiques. Cela a été démontré dans l’exemple mentionné précédemment impliquant Chail, qui croyait que le chatbot avec lequel il interagissait était l’un de ses amis proches. Cependant, avec l’anthropomorphisation croissante de l’IA, il deviendra probablement plus difficile de surmonter « l’effet Eliza », ce qui aura un impact brutal sur les opérations de recrutement de terroristes. alors que les jeunes se tournent de plus en plus vers l’IA pour répondre à certains de leurs besoins, notamment la recherche de thérapie, de compagnie, d’information ou autre. Des études récentes ont montré que les chatbots alimentés par l’IA peuvent identifier les préjugés et les désirs des utilisateurs, leur donnant ainsi ce qu’ils veulent entendre. Plus les algorithmes nous disent ce que nous voulons, plus nous y revenons, parfois jusqu’à l’addiction. En ce sens, l’IA peut développer des messages personnalisés qui garantissent que les individus ciblés s’engagent dans la propagande terroriste.

Sur le deuxième facteur, l’utilisation de l’IA parallèlement à d’autres technologies émergentes ou établies peut potentiellement modifier les méthodes et les mécanismes de planification des attaques terroristes. Il peut être utilisé en conjonction avec les jeux vidéo, la réalité augmentée, les monnaies numériques et les médias sociaux, entre autres, pour faciliter les opérations de recrutement en automatisant les interactions avec des personnes ciblées sur les plateformes de médias sociaux, par exemple, même en contournant les politiques de modération du contenu ; Les médias sociaux utilisent généralement une technologie connue sous le nom d’« empreinte digitale numérique » pour supprimer le contenu terroriste et extrémiste sur leurs plateformes. Cependant, la manipulation de la propagande terroriste à l’aide de l’IA générative peut permettre aux extrémistes de modifier « l’empreinte numérique » de certains contenus partagés sur ces plateformes.

Un autre exemple est l’intégration de l’IA dans des technologies émergentes comme la réalité augmentée ou virtuelle. Les organisations terroristes ont déjà utilisé des jeux conventionnels, non pilotés par l’IA, pour atteindre leurs objectifs. Selon le Centre de lutte contre le terrorisme de l’ONU, les simulations créées par des extrémistes dans des jeux comme Les Sims et Minecraft permettent aux joueurs de vivre le massacre de Christchurch, et les extrémistes ont créé des ethno-États blancs dans Roblox. Dans un monde virtuel décentralisé géré par des organisations terroristes, les terroristes peuvent simuler des réalités qui reflètent leur idéologie préférée et le monde gouverné par un « califat mondial ». Immerger des terroristes recrutés dans cet environnement peuplé d’individus soutenus par l’IA pourrait contribuer à former de nouveaux terroristes et à dénaturer leurs convictions. Si les vidéos d’organisations terroristes ont influencé leurs spectateurs, les présenter à travers des expériences 3D qui manipulent leurs sens augmentera leur efficacité.

En ce qui concerne le troisième facteur, traditionnellement, la plupart des avancées technologiques se sont propagées d’Internet aux smartphones dans les pays les plus riches et les plus développés avant de se propager au reste du monde. Cependant, l’IA ne se heurte pas à des obstacles qui empêchent sa diffusion mondiale synchrone ; Il s’appuie en grande partie sur les smartphones et les données Internet, qui sont déjà largement disponibles et relativement peu coûteux. L’Inde et les Philippines sont deux des cinq pays qui comptent le plus grand nombre d’utilisateurs de ChatGPT. Cette adoption mondiale simultanée de l’IA pourrait amplifier les risques de son utilisation par des organisations terroristes. Même si les terroristes s’aventurent dans des pays méridionaux lointains pour mener à bien leurs activités, ils peuvent être privés, au moins relativement, d’accès à des technologies de pointe. Cependant, ce ne sera pas le cas avec l’IA générative.

En conclusion, l’utilisation de l’IA générative par les organisations terroristes représente une tendance préoccupante dans le paysage mondial de la sécurité en raison de ses graves implications. Néanmoins, il s’agit d’une évolution naturelle dans l’évolution continue des méthodes de ces organisations, qui sont passées des moyens traditionnels aux stratégies numériques. Les plateformes électroniques et les médias sociaux sont devenus des champs de bataille parallèles pour ces organisations, terroristes et groupes extrémistes dans un environnement d’information chaotique, des réseaux Internet étroitement interconnectés et des technologies numériques qui peuvent être utilisées à mauvais escient.

Please subscribe to our page on Google News

SAKHRI Mohamed
SAKHRI Mohamed

Je suis titulaire d'une licence en sciences politiques et relations internationales et d'un Master en études sécuritaire international avec une passion pour le développement web. Au cours de mes études, j'ai acquis une solide compréhension des principaux concepts politiques, des théories en relations internationales, des théories sécuritaires et stratégiques, ainsi que des outils et des méthodes de recherche utilisés dans ces domaines.

Articles: 15220

Laisser un commentaire

Your email address will not be published. Required fields are marked *