Les IA génératives, par leur fonctionnement et leur impact, interrogent directement les cadres réglementaires européens comme le Digital Services Act (DSA), le Digital Markets Act (DMA) et l’AI Act.
Que ces modèles d'IA generatives soient développés aux Etats-Unis ou en Chine, les conflits entre réglementations sont de plus en plus perceptibles.
Conflits avec le Digital Services Act (DSA)
Objectif du DSA : Encadrer les plateformes numériques pour lutter contre les contenus illégaux, protéger les utilisateurs et garantir la transparence.
Points de friction avec les IA génératives :
- Responsabilité des contenus : Le DSA impose aux plateformes de modérer les contenus illégaux (haine, désinformation, etc.). Mais qui est responsable si une IA génère un contenu illégal ? Le fournisseur de l’IA, l’utilisateur, ou les deux ?
- Transparence : Le DSA exige que les algorithmes de recommandation soient explicables. Or, les IA génératives fonctionnent souvent comme des « boîtes noires », ce qui rend difficile la traçabilité des sources et des biais.
- Obligation de signalement : Les plateformes doivent signaler les . Les IA, en générant du contenu à la demande, compliquent cette surveillance.
Exemple concret : Si une IA génère une réponse discriminatoire ou fausse, comment appliquer les sanctions prévues par le DSA ?
Conflits avec le Digital Markets Act (DMA)
Objectif du DMA : Limiter les abus de position dominante des « gatekeepers » (grandes plateformes comme Google, Meta, etc.) et favoriser la concurrence.
Points de friction avec les IA génératives :
- Concentration du pouvoir : Les IA génératives sont souvent développées par les mêmes géants du numérique visés par le DMA. Leur intégration dans des services existants (moteurs de recherche, réseaux sociaux) pourrait renforcer leur domination.
- Interopérabilité : Le DMA impose aux gatekeepers d’ouvrir leurs services à des concurrents. Mais une IA propriétaire, entraînée sur des données exclusives, peut créer de nouvelles barrières à l’entrée.
- Accès aux données : Les IA ont besoin de pour s’entraîner. Le DMA pourrait limiter l’accès à certaines données, ce qui affecterait la qualité des modèles européens face aux acteurs américains ou chinois.
Enjeu : Les IA pourraient devenir de nouveaux « gatekeepers » si elles deviennent incontournables pour accéder à l’information.
Conflits avec l’AI Act
Objectif de l’AI Act : Réguler les risques liés à l’IA, en classant les systèmes par niveau de dangerosité (de « risque minimal » à « inacceptable »).
Points de friction avec les IA génératives :
- Classification des risques : Les IA génératives sont considérées comme des systèmes à « risque limité » ou « haut risque » selon leur usage (ex. : utilisation dans l’éducation, la santé, ou la modération de contenus).
Les obligations (transparence, documentation, évaluation) seront strictes pour les usages sensibles. - Transparence et explicabilité : L’AI Act exige que les utilisateurs sachent quand ils interagissent avec une IA.
Les modèles doivent donc clairement s’identifier. - Droits d’auteur : L’AI Act et le droit européen imposent de respecter les droits d’auteur pour les données d’entraînement. Or, beaucoup de modèles ont été entraînés sur des explicite.
- Biais et discrimination : L’AI Act interdit les systèmes qui discriminent. Les IA génératives, si elles reproduisent des d’entraînement, pourraient être sanctionnées.
Exemple : Une IA générative utilisée pour le recrutement ou l’octroi de crédits serait soumise à des règles très strictes.
Un équilibre à trouver
Les réglementations européennes ne sont pas nécessairement incompatibles avec les IA génératives, mais elles imposent des contraintes fortes :
- Adaptation des modèles : Les développeurs doivent concevoir des IA plus transparentes, avec des garde-fous contre les biais et les contenus illégaux.
- Collaboration avec les régulateurs : Les entreprises doivent travailler avec les autorités pour définir des bonnes pratiques (ex. : audits indépendants, documentation des données).
- Innovation responsable : L’Europe mise sur une IA « centrée sur l’humain », ce qui pourrait freiner certains usages, mais aussi créer un avantage compétitif (ex. : IA plus éthiques et fiables).
Les IA génératives ne sont pas incompatibles avec le DSA, le DMA ou l’AI Act, mais elles obligent à repenser leurs développements et leurs usages.
Jean-Marie Cavada et Bernard Benhamou - mars 2025
IDF Rights : rapport en téléchargement - juin 2025
Quels sont les principaux risques associés à l’utilisation de modèles d’IA moins régulés, comme ceux développés aux États-Unis ou en Chine ?
Les modèles d’IA développés dans des cadres moins régulés, comme aux États-Unis ou en Chine, présentent plusieurs risques majeurs, tant pour les individus que pour la société dans son ensemble.
1. Risques pour les droits fondamentaux et la vie privée
2. Biais et discriminations systémiques
3. Désinformation et manipulation
4. Concentration du pouvoir et monopoles
5. Sécurité et usages malveillants
6. Impact sur l’emploi et l’économie
7. Manque de transparence et de redevabilité
8. Risques géopolitiques
1. Risques pour les droits fondamentaux et la vie privée
-
: En Chine, les modèles d’IA sont souvent intégrés à des systèmes de surveillance étatique (, notation sociale), ce qui pose des questions éthiques et liberticides.
Aux États-Unis, l’absence de cadre fédéral strict permet à des entreprises ou des agences gouvernementales d’utiliser l’IA pour collecter et analyser des données personnelles sans consentement éclairé.
Exemple : La reconnaissance faciale déployée à grande échelle dans des villes chinoises ou par des forces de l’ordre américaines, avec des risques de faux positifs et de discrimination. -
Atteintes à la vie privée : Les données utilisées pour entraîner ces modèles peuvent être collectées sans transparence, incluant des informations sensibles (localisation, habitudes, relations sociales).
Le manque de protection comme le RGPD européen expose les utilisateurs à des fuites ou des usages abusifs.
2. Biais et discriminations systémiques
-
Reproduction des inégalités : Les modèles d’IA apprennent à partir de , qui reflètent souvent des biais sociaux (racisme, sexisme, classisme). Sans régulation forte, ces biais se perpétuent et s’amplifient.
Exemple : Des algorithmes de recrutement ou de crédit aux États-Unis ont été accusés de défavoriser les minorités ethniques ou les femmes, faute de contrôles suffisants. -
Manque de diversité : Les équipes développant ces IA sont souvent peu diversifiées, ce qui aggrave les angles morts culturels ou sociaux. Par exemple, des systèmes de santé basés sur l’IA ont montré des performances inférieures pour les patients noirs en raison de données d’entraînement déséquilibrées.
3. Désinformation et manipulation
-
et fake news : Les IA génératives peuvent créer des contenus ultra-réalistes (vidéos, voix, textes) pour manipuler l’opinion publique, influencer des élections ou discréditer des personnes.
Exemple : Aux États-Unis, des deepfakes ont déjà été utilisés pour imiter des personnalités politiques ou diffuser de fausses informations pendant des campagnes électorales. -
Propagande et contrôle de l’information : En Chine, l’IA est utilisée pour censurer ou promouvoir des narratifs officiels, limitant la liberté d’expression.
Aux États-Unis, des acteurs malveillants (États, groupes extrémistes) exploitent l’IA pour diffuser de la désinformation à grande échelle, sans garde-fous efficaces.
4. et monopoles
-
Domination par les géants technologiques : Aux États-Unis, quelques entreprises (Google, Meta, Microsoft, etc.) contrôlent l’essentiel des infrastructures d’IA, ce qui limite la concurrence et donne un pouvoir démesuré à ces acteurs sur l’information et l’économie.
Risque : Une poignée d’entreprises pourrait imposer ses standards, ses valeurs et ses intérêts, au détriment de la pluralité. -
Dépendance technologique : Les pays ou entreprises dépendants de ces modèles (via des API ou des services cloud) deviennent vulnérables à des décisions unilatérales, comme des coupures d’accès ou des hausses de prix.
5. Sécurité et usages malveillants
-
Cyberattaques et fraudes : Les IA peuvent être détournées pour automatiser des attaques (phishing, usurpation d’identité) ou créer des logiciels malveillants adaptatifs.
Exemple : Des chatbots malveillants peuvent convaincre des utilisateurs de divulguer des informations sensibles ou d’effectuer des paiements frauduleux. -
: L’absence de régulation internationale claire ouvre la porte au développement d’armes létales autonomes, capables de sélectionner et d’attaquer des cibles sans intervention humaine.
6. Impact sur l’emploi et l’économie
-
: Les IA non régulées accélèrent la disparition de certains emplois, sans mécanismes de reconversion ou de protection sociale adaptés.
Exemple : Aux États-Unis, des secteurs comme le service client ou la création de contenu sont déjà bouleversés par l’IA, avec des conséquences sur les salaires et les conditions de travail. -
Précarisation des travailleurs : Les plateformes utilisant l’IA (comme Uber ou Amazon) optimisent leurs algorithmes pour maximiser la productivité, souvent au détriment des droits des travailleurs (rythmes imposés, surveillance intrusive).
7. Manque de transparence et de redevabilité
-
: Sans obligation de transparence, il est impossible pour les utilisateurs ou les régulateurs de comprendre comment les décisions sont prises (ex. : refus de prêt, modération de contenu).
Conséquence : Difficulté à contester une décision automatisée, même en cas d’erreur ou d’injustice. -
Impunité des développeurs : Aux États-Unis, la Section 230 protège les plateformes de la responsabilité des contenus générés par leurs utilisateurs ou leurs IA, ce qui limite les recours en cas de préjudice.
8. Risques géopolitiques
- : Les tensions entre les États-Unis et la Chine poussent à une compétition effrénée en IA, avec des risques d’escalade (ex. : IA militaire, sabotage d’infrastructures critiques).
- Normes divergentes : Les modèles chinois et américains incarnent des valeurs opposées (contrôle étatique vs. libéralisme économique), ce qui fragmente l’internet et complique la coopération internationale.
Comparaison avec l’approche européenne
L’Europe, via l’AI Act, le DSA et le DMA, tente de mitiger ces risques en imposant :
- Des obligations de transparence (ex. : étiquetage des contenus générés par IA).
- Des limites aux usages à haut risque (ex. : interdiction de la notation sociale).
- Des sanctions en cas de non-respect des droits fondamentaux.
En lien avec l'article :
. Entre l'Europe et les GAFAM
. Actualités geopolitiques entre l'UE et les USA
. Actualités geopolitiques entre l'UE et les USA
. Alternatives européennes et open source aux GAFAM
. Avec l'entrée des IA generative peut-on dire que c'est la fin du web ouvert ?
. En Europe, quelles précautions à prendre dans l'utilisation des IA génératives ?

