IA générative : les aspects clés d’une utilisation éthique

Artimon Perspectives

Nous avons compilé ci-dessous une série d’articles, publiée sur la page LinkedIn de notre institut de recherche Artimon Perspectives, dédiée à l’utilisation éthique et responsable de l’IA générative. Nos chercheurs abordent des critères d’utilisation et des actions nécessaires pour réduire les risques liés aux mauvais usages de l’IA générative. Cette série s’inscrit dans notre note d’analyse d’un papier récent : « Generative AI Misuse: A Taxonomy of Tactics and Insights from Real-World Data ».

Quels sont les enjeux de l’intelligence artificielle générative dans la transformation des domaines numériques ?

L’intelligence artificielle générative est en train de transformer divers domaines en automatisant la création de textes, d’images, de sons et de vidéos. Ces modèles, entraînés sur des ensembles de données diversifiés et gargantuesques, démontrent des capacités allant de la compréhension audiovisuelle complexe à la simulation réaliste d’environnements réels. Cependant, ces mêmes capacités qui rendent l’IA générative si intéressante pour certains yeux posent également des risques significatifs en termes d’abus et de manipulation de l’information, point critique si l’en est quand on parle de notre période comme l’ère de l’information.

Nous allons vous présenter des conclusions qui font écho à l’article « Generative AI Misuse: A Taxonomy of Tactics and Insights from Real-World Data », réalisé par une équipe de Google DeepMind, Jigsaw et Google.org. Cette étude met en lumière le potentiel transformateur de l’IA générative dans divers secteurs, tout en abordant les risques majeurs associés à son usage abusif. L’objectif de cette recherche est de fournir une taxonomie complète des tactiques d’abus, informée par la littérature académique et une analyse qualitative de près de 258 incidents d’abus signalés entre janvier 2023 et mars 2024. Ces rapports font état notamment d’usurpation d’identité, d’appropriation de l’image, de Sock puppeting, de falsification ou de contrefaçon de l’information.

Afin de mieux comprendre et de prévenir ces abus, il est essentiel de prendre en compte les différents aspects et impacts de l’IA générative. Nous approfondirons ci-dessous quatre aspects clés identifiés dans l’étude : les barrières réduites à l’entrée et l’accessibilité généralisée, les lignes floues entre authenticité et tromperie, les préoccupations éthiques et la confiance du public, ainsi que les interventions techniques et non techniques nécessaires pour atténuer les risques associés à l’IA générative.

Ces analyses visent à éclairer les défis et les solutions potentielles pour utiliser ces technologies de manière responsable et éthique.


Comment la démocratisation des outils d’IA générative impacte-t-elle la création de contenu numérique et les abus potentiels ?

La démocratisation des outils d’IA générative tend à modifier le paysage de la création de contenu numérique, le rendant accessible à un plus large éventail d’acteurs, y compris les utilisateurs non techniques. Cette accessibilité découle de la disponibilité généralisée d’outils d’IA générative conviviaux qui nécessitent peu d’expertise technique pour être utilisés. Des plateformes comme ChatGPT et DALL-E ont abaissé les barrières à l’entrée, permettant aux individus de générer facilement des textes, des images et des vidéos de haute qualité. Ces outils permettent une production rapide et peu coûteuse de contenus, mais soulèvent des questions complexes sur les droits de propriété intellectuelle et la légitimité des créations.

Cette large accessibilité a des implications pour la manipulation de l’information. Grâce à ces outils, des individus et des groupes peuvent créer du contenu synthétique très réaliste, qui peut être utilisé à diverses fins, tant bénéfiques que problématiques. La capacité à générer des fake news convaincantes, des deepfakes et d’autres formes de médias manipulés pose des défis substantiels pour les régulateurs et la société en général. Comme le note Gupta et al. (2023), la facilité d’accès à de tels outils puissants augmente le potentiel d’abus à une plus grande échelle, nécessitant des cadres réglementaires robustes et une vigilance sociétale.

La démocratisation de l’IA générative soulève également des questions sur la littératie numérique et l’utilisation éthique. À mesure que de plus en plus de personnes ont accès à ces technologies, il devient d’autant nécessaire d’éduquer les utilisateurs sur les implications éthiques et les conséquences potentielles de leurs actions mais également responsabiliser les acteurs sur la mise à disposition des outils. Les campagnes de sensibilisation du public et les initiatives éducatives sont cruciales pour promouvoir une utilisation responsable et prévenir les abus. De plus, les plateformes offrant des services d’IA générative doivent mettre en place des garde-fous pour détecter et atténuer les utilisations nuisibles de leurs outils, garantissant ainsi que ces technologies contribuent positivement à la société.

La large accessibilité des outils d’IA générative démocratise la création de contenu, mais elle augmente aussi les risques d’abus. Pour faire face à ce double tranchant, il est nécessaire de combiner des garde-fous techniques, des initiatives éducatives et d’adopter des cadres réglementaires solides pour s’assurer une utilisation éthique et responsable de ces outils puissants.


Vrai ou faux ? Quand l’IA sème le doute 

Quels défis découlent de la capacité de l’IA générative à brouiller les lignes entre contenu authentique et trompeur ?

Comme nous en parlions précédemment, les capacités de l’IA générative à produire des sorties très réalistes ont considérablement brouillé les lignes entre contenu authentique et contenu trompeur. Ce phénomène pose un défi crucial pour vérifier l’authenticité des informations numériques, car il devient de plus en plus difficile de distinguer les médias authentiques des médias manipulés.

Pour reprendre l’exemple précédent, la création de deepfakes et d’autres médias synthétiques illustre parfaitement ce problème. Les deepfakes peuvent imiter de manière convaincante les voix et les apparences de personnes réelles, rendant difficile pour la personne moyenne de discerner l’authenticité. Cette technologie a été utilisée pour créer de fausses vidéos de personnalités publiques, diffuser de la désinformation et manipuler l’opinion publique. Des chercheurs argumentent que garantir l’exactitude et la fiabilité des sorties d’IA générative est crucial pour maintenir la confiance du public dans le contenu numérique. Le point ne se limite pas simplement à la possibilité de se faire « tromper », mais à l’idée plus pernicieuse que « tout pourrait être trompeur », et donc de devoir douter de tout.

Pour relever ces défis, des chercheurs et des développeurs travaillent sur diverses interventions techniques. Celles-ci incluent le développement d’outils de détection robustes capables d’identifier les médias manipulés et d’assurer la transparence dans le processus de génération. Des avancées significatives ont été faites dans la création de méthodes de vérification utilisant des algorithmes de machine learning qui analysent les anomalies et les signatures de manipulation dans les médias numériques. Par exemple, des systèmes d’authentification basés sur la blockchain sont explorés pour garantir l’intégrité et la traçabilité des contenus numériques.

De plus, les organismes de réglementation envisagent des politiques qui obligent à divulguer le contenu généré par l’IA, aidant les utilisateurs à identifier et à évaluer de manière critique les médias synthétiques. Cela inclut des étiquettes explicites indiquant que le contenu a été généré par une IA, ainsi que des directives sur l’utilisation éthique et responsable de ces technologies. Ces mesures sont essentielles pour créer un cadre de transparence et de responsabilité dans l’utilisation de l’IA générative.

Comme nous le mentionnions dans la section précédente, l’éducation du public à la littératie médiatique est également vitale, en dotant les individus des compétences nécessaires pour critiquer le contenu numérique. Les initiatives éducatives doivent inclure des programmes sur la détection des manipulations, la compréhension des biais algorithmiques, et l’évaluation critique des sources d’information. Les campagnes de sensibilisation du public jouent un rôle crucial en renforçant la résilience des utilisateurs face à la désinformation.

Ces lignes floues entre authenticité et tromperie créées par l’IA générative présentent des défis pour maintenir l’intégrité de l’information numérique, essentielle à un fonctionnement démocratique. Les solutions techniques, les mesures réglementaires et l’éducation du public sont toutes des composantes nécessaires pour relever ces défis et garantir que l’IA générative ne mette pas en péril nos fondements sociaux et notre rapport à l’information dans un système sociotechnique où elle est reine. L’objectif est de s’assurer que ces technologies contribuent de manière positive à la société tout en minimisant les risques de manipulation et de désinformation.


IA Générative : au-delà des garde-fous techniques, quelles actions ?

Quelle combinaison d’interventions est nécessaire pour atténuer les risques associés à l’IA générative ?

Bien que les interventions techniques telles que l’amélioration des garde-fous des modèles et le développement d’outils de détection, soient essentielles pour atténuer les risques associés à l’IA générative, elles ne sont pas suffisantes à elles seules. Une approche globale incluant des interventions non techniques est nécessaire pour aborder les facteurs sociaux et psychologiques plus larges contribuant aux abus de l’IA générative.

Interventions techniques

Les interventions techniques se concentrent sur l’amélioration de la robustesse et de la sécurité des modèles d’IA. Celles-ci incluent :

  • Développement d’algorithmes de détection : Des outils capables d’identifier et de signaler les médias synthétiques sont essentiels pour maintenir l’intégrité de l’information. Un cadre d’audit complet pour évaluer les ensembles de données synthétiques et les modèles d’IA en fonction de leur biais, de leur fidélité aux données réelles, de leur robustesse et de la préservation de la vie privée a été proposé par Belgodere et al. (2023). Ce cadre permet d’assurer que les données générées par l’IA respectent les normes de confiance et réduisent les risques de biais et de discrimination.
  • Mécanismes de transparence : La mise en œuvre de mécanismes de transparence pour divulguer le contenu généré par l’IA aide les utilisateurs à identifier les médias synthétiques. D’où l’importance d’un cadre juridique complet pour réguler l’IA générative, incluant des codes éthiques alignés sur des principes centrés sur l’humain et des législations spécifiques pour l’IA générative afin de garantir la transparence et la sécurité.
  • Conception de modèles résilients : Des modèles moins susceptibles aux attaques « adversariales » peuvent réduire le potentiel d’abus. C’est d’ailleurs l’un des défis posés par l’utilisation double de l’IA générative, où les mêmes capacités qui permettent des avancées positives peuvent également être exploitées à des fins malveillantes. Des auteurs comme Barrett et al. (2023) proposent des objectifs à court et à long terme pour la communauté de recherche afin de mieux comprendre et mitiger ces risques.

Interventions non techniques

Cependant, les interventions non techniques sont tout aussi importantes pour aborder les aspects sociaux et psychologiques :

  • Campagnes de sensibilisation : Comme nous en avons parlé, éduquer le public sur les implications éthiques et les risques potentiels de l’IA générative est crucial. Des campagnes de sensibilisation peuvent aider à développer une compréhension critique et à reconnaître les médias manipulés. Cela revient à penser une évaluation de la sécurité sociotechnique des systèmes d’IA générative, intégrant les interactions humaines et les impacts systémiques pour garantir que les évaluations de sécurité prennent en compte le contexte d’utilisation.
  • Initiatives éducatives : En corolaire, doter les individus des compétences nécessaires pour évaluer de manière critique le contenu numérique et reconnaître les médias manipulés est essentiel.
  • Mesures réglementaires : Cela ne va pas sans des lois sur la protection des données et des directives éthiques peuvent fournir un cadre pour le développement et l’utilisation responsables de l’IA. Sur ce point, Ghosh et Lakshmi (2023) proposent un cadre de gouvernance double qui combine des réglementations centralisées et des mécanismes de sécurité développés par la communauté pour protéger les parties prenantes contre les risques de l’IA générative, tout en laissant ouvert l’innovation et la créativité.

En conclusion, et en accord avec le rapport Lorenz et al. (2023), promouvoir une approche globale combinant interventions techniques et non techniques apparaît nécessaire pour gérer efficacement les risques associés à l’IA générative. La collaboration entre les décideurs politiques, les chercheurs, les leaders de l’industrie et la société civile est essentielle pour développer et mettre en œuvre ces interventions, garantissant que les technologies d’IA générative soient utilisées de manière éthique et responsable.


Références

Barrett, C., Boyd, B., Burzstein, E., Carlini, N., Chen, B., Choi, J., Chowdhury, A., Christodorescu, M., Datta, A., Feizi, S., Fisher, K., Hashimoto, T., Hendrycks, D., Jha, S., Kang, D., Kerschbaum, F., Mitchell, E., Mitchell, J., Ramzan, Z., Shams, K., Song, D., Taly, A., & Yang, D. (2023). Identifying and Mitigating the Security Risks of Generative AI. ArXiv, abs/2308.14840. https://doi.org/10.1561/3300000041.

Belgodere, B., Dognin, P., Ivankay, A., Melnyk, I., Mroueh, Y., Mojsilovic, A., Navartil, J., Nitsure, A., Padhi, I., Rigotti, M., Ross, J., Schiff, Y., Vedpathak, R., & Young, R. (2023). Auditing and Generating Synthetic Data with Controllable Trust Trade-offs. ArXiv, abs/2304.10819. https://doi.org/10.48550/arXiv.2304.10819.

Boscardin, C.K., Gin, B.C., Golde, P.B., & Hauer, K.E. (2023). ChatGPT and Generative Artificial Intelligence for Medical Education: Potential Impact and Opportunity. Academic Medicine, 99, 22 – 27.

Ghosh, A., & Lakshmi, D. (2023). Dual Governance: The intersection of centralized regulation and crowdsourced safety mechanisms for Generative AI. ArXiv, abs/2308.04448. https://doi.org/10.48550/arXiv.2308.04448.

Gupta, M., Akiri, C., Aryal, K., Parker, E., & Praharaj, L. (2023). From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity and Privacy. IEEE Access, 11, 80218-80245.

Hanai, A., Ishikawa, T., Kawauchi, S., Iida, Y., & Kawakami, E. (2023). Generative Artificial Intelligence for Clinical Communication: Implications for Non-Pharmacological Interventions in Health Care.. . https://doi.org/10.1101/2023.09.28.23296287.

Kenthapadi, K., Lakkaraju, H., & Rajani, N. (2023). Generative AI meets Responsible AI: Practical Challenges and Opportunities. Proceedings of the 29th ACM SIGKDD Conference on Knowledge Discovery and Data Mining

Li, J., Cai, X., & Cheng, L. (2023). Legal regulation of generative AI: a multidimensional construction. International Journal of Legal Discourse, 8, 365 – 388. https://doi.org/10.1515/ijld-2023-2017.

Lorenz, P., Perset, K., & Berryhill, J. (2023). Initial policy considerations for generative artificial intelligence. OECD Artificial Intelligence Papers.

Marchal, N., Xu, R., Elasmar, R., Gabriel, I., Goldberg, B., & Isaac, W. (2024). Generative AI Misuse: A Taxonomy of Tactics and Insights from Real-World Data. arXiv preprint arXiv:2406.13843.

Napitupulu, P.A., Sinaga, C.A., & Hasugian, A.L. (2023). The Implication of Generative Artificial Intelligence towards Intellectual Property Rights (Examining the Multifaceted Implications of Generative Artificial Intelligence on Intellectual Property Rights). West Science Law and Human Rights.

Putjorn, T., & Putiorn, P. (2023). Augmented Imagination: Exploring Generative AI from the Perspectives of Young Learners. 2023 15th International Conference on Information Technology and Electrical Engineering (ICITEE), 353-358.

Weidinger, L., Rauh, M., Marchal, N., Manzini, A., Hendricks, L., Mateos-Garcia, J., Bergman, S., Kay, J., Griffin, C., Bariach, B., Gabriel, I., Rieser, V., & Isaac, W. (2023). Sociotechnical Safety Evaluation of Generative AI Systems. ArXiv, abs/2310.11986. https://doi.org/10.48550/arXiv.2310.11986.

Articles similaires