Les technologies de l’intelligence artificielle ont accordé des extensions non conventionnelles aux représentations créatives, qui ont longtemps été le domaine des humains. Elles ont ouvert des horizons sans précédent pour surmonter les limitations de l’apprentissage humain grâce à des modèles intelligents capables de générer instantanément de nouveaux motifs d’expression visuelle, où les algorithmes s’entrelacent avec la sensibilité humaine. Cependant, ce développement soulève également de sérieuses préoccupations concernant de nombreuses dimensions éthiques, juridiques, sécuritaires et sociales.

Ce débat s’est intensifié récemment avec l’annonce par la société américaine « OpenAI » de sa capacité à générer des images numériques qui imitent le style du Studio Ghibli, le studio d’animation japonais. Cette mise à jour a attiré une attention considérable parmi les utilisateurs qui se sont précipités pour l’utiliser afin de se représenter, ainsi que leurs familles et amis, en personnages de dessins animés dans des mondes fantastiques. Cette extension incluait même la représentation de célébrités et de figures publiques, amenant la Maison Blanche à publier une image de dessin animé générée artificiellement montrant l’arrestation d’un résident sans papiers accusé de trafic de drogue. Cette popularité a donné un élan à l’utilisation de modèles d’IA génératifs pour créer du contenu visuel destiné à la communication dans l’espace virtuel, soulevant des questions et des préoccupations sur les frontières floues entre ce qui est humain et ce qui est machine, et les implications de ces pratiques sur la culture numérique et les normes sociales futures.

Dilemme de la propriété intellectuelle :

Le Studio Ghibli a été fondé au Japon en 1985 par les réalisateurs Isao Takahata et Hayao Miyazaki pour produire des films d’animation qui ont développé un style distinctif, atteignant une large renommée et remportant des prix internationaux, y compris un Oscar ; cela a contribué à la diffusion internationale de son style unique, liant les productions de la société à la mémoire visuelle de millions d’enthousiastes de l’anime japonais à travers le monde. Cette tendance à générer des images en utilisant son style distinctif a conduit à une augmentation record du nombre d’utilisateurs de « ChatGPT », avec un million de nouveaux utilisateurs en seulement une heure, alors que les images générées par l’IA inondaient les réseaux sociaux.

Certains ont vu la tendance Ghibli comme un outil pour tester les capacités créatives de l’intelligence artificielle, promouvant des discussions à ce sujet sur les réseaux sociaux de manière généralisée ; cela renforce la familiarité avec ces outils et leur utilisation efficace, en plus de présenter d’innombrables possibilités de génération artistique qui mêlent le style Ghibli à des moments personnels grâce à des technologies intelligentes dans une intersection notable entre technologie et créativité.

Inversement, ces pratiques soulèvent des dilemmes éthiques et juridiques complexes liés à la paternité, aux droits d’auteur et aux questions de licence d’utilisation. Le téléchargement d’images sur la plateforme intelligente pour traitement transfère la propriété du contenu nouvellement généré au propriétaire de la plateforme, soulevant des questions sur les droits du propriétaire original de l’image, ainsi que sur les droits du style artistique utilisé, comme c’est le cas avec le Studio Ghibli, dont le style artistique unique a été imité. Cette situation fait écho à des similarités involontaires entre le contenu généré par une série de séquences mécaniques et d’autres contenus produits par un effort humain authentique.

Dans le cas du contenu inspiré par le Studio Ghibli, les modèles d’IA ont été formés sur des milliers de cadres extraits de films, d’affiches et d’œuvres d’art sans obtenir de licence, rendant difficile de revendiquer l’originalité de ces créations génératives. Cela implique que les proposer à la vente, par exemple, peut violer les droits d’auteur, en plus d’être sujet à suppression pour imitation des styles artistiques protégés par la loi. Cela constitue un gaspillage énorme de l’effort des artistes qui ont passé des années à maîtriser leur métier et à développer un style artistique unique, condensé par l’IA en quelques secondes seulement. De plus, s’appuyer sur des styles artistiques spécifiques, répétés et recyclés par des algorithmes de recommandation peut conduire à effacer la diversité culturelle visuelle au profit de motifs perpétués par les modèles d’IA.

Le dilemme ne concerne pas seulement les dimensions éthiques et artistiques ; il soulève une autre question juridique concernant la capacité de prouver l’utilisation de productions artistiques originales comme entrée pour l’entraînement du modèle d’IA et de démontrer qu’OpenAI a formé ses grands modèles de langage sur des films et des émissions de télévision originaux appartenant à Ghibli, et non sur des œuvres créées par des fans partagées en ligne. Bien que les œuvres elles-mêmes soient protégées par la loi, le style artistique en tant que moyen d’expression visuelle ne bénéficie pas de la même protection. Ces arguments soulignent les défis auxquels les cadres juridiques sont confrontés dans la protection de la créativité et de la propriété intellectuelle contre le contenu génératif artificiel.

Apprentissage machine et collecte de données :

Les méthodes utilisées pour calculer le volume de données nécessaires à l’entraînement des modèles d’apprentissage machine varient ; certaines stratégies d’estimation sont basées sur une règle du dixième, impliquant qu’un modèle d’apprentissage machine nécessite au moins dix exemples pour chaque caractéristique ou variable prédictive, ce qui peut augmenter considérablement pour les réseaux neuronaux profonds contenant des centaines de milliers ou des millions de paramètres, ainsi que pour les modèles de traitement du langage naturel qui nécessitent des milliards d’exemples textuels pour saisir les vastes variations linguistiques. Cela signifie que la taille des données d’entraînement varie en fonction de la tâche demandée au modèle et de sa complexité ; que la tâche implique la classification d’images, l’analyse des sentiments, la réalisation de prédictions et d’autres paramètres liés à la précision des données, y compris les sources, la qualité et les biais potentiels.

Dans ce contexte, les plateformes de réseaux sociaux et les outils d’IA sont devenus non seulement des espaces numériques de création de contenu et de communication, mais aussi d’immenses mines de données, où chaque publication, image, vidéo ou interaction partagée par les utilisateurs est collectée, transformée avec précision et utilisée pour affiner des modèles d’IA sophistiqués, améliorant ainsi leur performance. Ils aident à personnaliser les services, à améliorer les systèmes de recommandation et à développer des assistants virtuels et des chatbots. Bien que le contenu des réseaux sociaux ne soit pas la seule source de jeux de données utilisés dans l’apprentissage machine, il est une source significative et qualitative d’entrées abondantes à des fins et complexités variées, non seulement pour l’utilisation de l’IA mais aussi pour d’autres modèles. En Corée du Sud, les données privées et publiques dérivées d’Internet et des réseaux sociaux constituaient 10,2 % des sources de données utilisées par le secteur public pour entraîner des modèles d’IA.

Lorsqu’un utilisateur accorde à un outil d’IA l’accès à ses images pour des modifications requises, que ce soit pour modifier ou ajouter une touche artistique, ou pour les mélanger à des éléments irréels, le modèle intelligent fait plus que simplement analyser et modifier des images ; il les stocke et les analyse pour un entraînement continu, les incluant souvent dans des ensembles de données beaucoup plus larges pour renforcer la performance de l’IA. Les entreprises annoncent clairement cela dans leurs politiques de confidentialité et leurs conditions d’utilisation.

Il en va de même pour les réseaux sociaux, où « Meta » profite des publications publiques pour entraîner des chatbots et des assistants virtuels, et « LinkedIn » utilise des CV et des publications professionnelles pour améliorer ses algorithmes de mise en relation d’emploi. Pendant ce temps, la plateforme « X » partage les données des utilisateurs avec des tiers pour former l’IA à moins que les utilisateurs ne choisissent explicitement de ne pas partager.

Par exemple, les politiques de confidentialité d’OpenAI stipulent que l’utilisation de ses services implique la permission de collecter des données de quatre sources principales : d’abord, l’utilisateur lui-même, qui fournit volontairement des données telles que des informations personnelles et des éléments de contenu comme de l’audio, des images et des fichiers ; ensuite, des données reçues automatiquement, telles que des données de journal et la localisation de l’appareil ; ainsi que des données reçues de partenaires comme des fournisseurs de marketing concernant d’éventuels clients ; et enfin, des informations provenant d’autres sources, comme des données disponibles publiquement sur Internet. La société revendique également le droit de conserver, divulguer, partager et utiliser ces données pour diverses fins non spécifiées afin de « renforcer et développer des services et de mener des recherches », ce qui englobe de nombreux domaines d’utilisation, y compris l’entraînement des modèles.

Grâce à des politiques de confidentialité soigneusement élaborées, les grandes entreprises technologiques obtiennent un accès au contenu des utilisateurs, l’analysant et l’incluant dans leurs processus d’entraînement en cours. Alors que l’utilisateur pense qu’il interagit avec un service, ses données sont recyclées pour améliorer la performance des machines et élargir leurs capacités—souvent condensées dans des termes généraux comme « améliorer les services », permettant aux entreprises de posséder d’énormes quantités de données sans responsabilité sérieuse ou authentique.

Utilisations inattendues :

Bien que les utilisateurs partagent du contenu sur les réseaux sociaux par amusement, curiosité ou engagement social, ces interactions peuvent être exploitées de manières qu’ils n’avaient pas anticipées, cachant souvent des motifs cachés différents de l’objectif de base de leur partage. Cette problématique devient prononcée lorsque les utilisateurs sont implicitement dirigés à contribuer à ces objectifs sans awareness ou transparence ; ouvrant la porte largement aux abus et à une participation inconsciente à la création de systèmes capables de suivre, de classer, et de contrôler.

Avec le lancement par OpenAI de la tendance Ghibli et le bénéfice potentiel qu’elle en tirerait pour améliorer ses algorithmes ou réaliser de plus grands profits (ce qui a provoqué une augmentation de 6 % des revenus des achats intégrés), une tendance antérieure introduite par Meta sur Facebook, surnommée le « Ten-Year Challenge », est réapparue. Ce défi a sollicité les utilisateurs à partager leurs photos récentes aux côtés d’images d’il y a dix ans. Plusieurs rapports ont ensuite indiqué qu’il faisait partie d’un projet visant à entraîner les algorithmes de l’entreprise à reconnaître des visages, à estimer des âges, et à différencier des caractéristiques à travers diverses races, couleurs et genres, tirant parti de la vaste diversité géographique des utilisateurs de Facebook à travers le monde.

Cela illustre comment certaines entreprises technologiques exploitent des phénomènes tendances à des fins cachées, telles que la collecte de données, ou le partage de ces données avec des parties externes, comme le montre Amazon, qui a été critiqué par l’American Civil Liberties Union pour avoir vendu des technologies de reconnaissance faciale au gouvernement, notamment aux agences d’application de la loi, comme les départements de police d’Orlando et du comté de Washington, dans l’Oregon.

Les technologies de reconnaissance faciale figurent parmi les applications les plus préoccupantes reflétant un problème mondial étant donné les capacités de l’IA à identifier et définir des objets, utilisées par les gouvernements, les grandes entreprises, et les hackers pour la surveillance, le marketing, et le suivi de la sécurité. Les scénarios de ces applications inattendues augmentent lorsqu’on considère les risques de fuites et de violations de données, car les vastes quantités de données représentent une cible précieuse pour des activités malveillantes, menant à des ventes ou à des utilisations d’extorsion, de contrefaçon et d’attaques. Lorsque des images personnelles sont téléchargées sur des systèmes d’IA pour la génération d’images, elles deviennent susceptibles d’utilisations inattendues qui dépassent l’intention de l’utilisateur, comme être utilisées pour former des systèmes d’IA capables de reconnaître des individus ou de les suivre dans des scénarios réels. Une fois qu’une image est téléchargée dans le cloud, elle entre dans un système numérique accessible à plusieurs parties, intentionnelles ou non.

En conclusion, la combinaison des capacités d’IA générative et de leur popularité sur les plateformes de médias sociaux pose des défis qui nécessitent l’élaboration de politiques de protection des données plus spécifiques et complètes. Ces politiques devraient garantir que les utilisateurs comprennent comment leurs données sont collectées, utilisées et stockées tout en veillant à leur sécurité. Le plaisir, l’excitation, et l’humour accompagnant les tendances sur les réseaux sociaux masquent un réseau de risques pour la vie privée, de problèmes de droits d’auteur et de dilemmes éthiques dont de nombreux utilisateurs ne sont pas conscients, obligeant les entreprises technologiques à améliorer la transparence concernant les pratiques de gestion des données et à fournir de véritables alternatives pour le consentement et le contrôle des données. D’autant plus étant donné l’ignorance répandue parmi les utilisateurs sur les conditions de service qu’ils acceptent souvent sans conscience suffisante des conséquences en échange d’un accès immédiat à des services apparemment gratuits. La gravité de la question se voit aggravée par l’accumulation continue d’énormes quantités de données utilisées pour entraîner des modèles d’IA, les rendant des cibles tentantes pour des attaques de piratage.

Did you enjoy this article? Feel free to share it on social media and subscribe to our newsletter so you never miss a post! And if you'd like to go a step further in supporting us, you can treat us to a virtual coffee ☕️. Thank you for your support ❤️!

Categorized in: