Malgré les contestations, l’IA Act poursuit sa mise en oeuvre en Europe

Dans le calendrier de mise en oeuvre de l’IA Act, le 2 août 2025 marque la mise en place de certaines règles pour les systèmes d’IA à usage général. Une réglementation qui suscite toujours un rejet de la part de l’administration Trump ou de Meta. De son côté, Google a décidé de signe le code de bonnes pratiques lié à l’IA Act, tout en alertant sur les risques pour l’innovation.

Le débat reste toujours vif sur l’IA Act. Ce règlement européen sur l’intelligence artificielle voté en 2024 vient en effet de franchir une étape en ce début du mois d’août. A cette date, plusieurs dispositions rentrent en vigueur notamment la gouvernance des systèmes d’IA à usage général (GPAI), des sanctions en cas de non-respect et les mécanismes de contrôle par des autorités désignées (Cnil, autorité de la concurrence,…). Le texte impose des interdictions ou des conditions spécifiques selon une classification des systèmes d’IA en fonction des risques : inacceptable, élevé, limité ou minimal.

Le calendrier est progressif selon le type de système régulé s’étalant de 2026 (pour les IA utilisées dans la biométrie, les infrastructures critiques, l’éducation, l’emploi ou la justice) jusqu’à 2027 (pour les IA à haut risque intégrées dans les jouets, les dispositifs médicaux, les machines). A noter que le non-respect des obligations entraîne des sanctions pouvant aller jusqu’à 35 M€ d’amende ou 7% du chiffre d’affaires annuel mondial pour les entreprises.

Des effets encore discrets sur le terrain

Certaines mesures ont déjà été appliquées, comme l’interdiction des systèmes à risque jugé inacceptable ou la création de l’Office européen de l’IA, mais leur impact reste pour l’instant limité. De même, la date du 2 août ne bouleverse pas l’écosystème de l’IA, car aucun cas médiatique majeur n’a encore émergé. Mais selon Víctor Rodríguez, maître de conférences à l’Université polytechnique de Madrid, « les effets devraient bientôt se faire sentir ». De son côté, Roger Segarra, associé au département informatique et propriété intellectuelle chez Osborne Clarke, observe déjà des impacts concrets. « Certaines pratiques interdites, comme l’utilisation par les administrations de systèmes d’identification biométrique à distance en temps réel à des fins de surveillance, ont eu un effet dissuasif dès leur annonce, avant même leur entrée en vigueur », explique-t-il. Pour autant, « la mise en conformité des PME crée un climat de tension liées aux contraintes administratives et financières, ainsi qu’au manque de directives claires », poursuit-il.

Pour Arnau Roca, associé directeur d’Overstand Intelligence, cabinet spécialisé dans le conseil en IA, « la première année a montré que le développement rapide de l’IA dépasse la capacité législative à la réguler efficacement ». La Commission européenne ambitionne de faire de l’IA Act un équivalent du RGPD pour l’IA, mais l’« effet Bruxelles », qui avait permis d’imposer des standards européens à l’échelle mondiale, peine à se reproduire. La réélection de Donald Trump et les positions divergentes des entreprises IT nourrissent les incertitudes.

Google joue la carte de la conformité

Dans ce contexte, Google a choisi de se conformer au code de conduite volontaire mis en place par l’Union européenne pour encadrer les IA à « risque systémique », une catégorie qui englobe les LLM développés par OpenAI, Meta, Anthropic ou Google lui-même. Les entreprises concernées disposent d’un délai de deux ans pour se mettre pleinement en conformité. Selon Tulika Sheel, vice-présidente au cabinet d’analyse Kadence International, cet engagement pourrait devenir un levier concurrentiel. « La pression augmente sur les acteurs de l’IA. Adopter des pratiques responsables offre une opportunité de se différencier, de gagner en réputation et de répondre aux attentes croissantes des entreprises et des utilisateurs finaux », explique-t-elle.

Pour autant, Google reste prudent. Dans un billet de blog, Kent Walker, président des affaires mondiales du groupe, alerte sur les risques liés à ce cadre réglementaire : « L’IA Act pourrait freiner l’innovation en Europe, en raison notamment d’incompatibilités avec le droit d’auteur, de délais d’approbation trop longs ou d’exigences risquant d’exposer des secrets industriels. »

Des contestations américaines et européennes fortes

Cette position contraste avec celle de l’administration Trump, qui, il y a quelques mois, appelait à abandonner les codes de bonne conduite sur l’IA, privilégiant une régulation légère confiée aux entreprises afin de favoriser l’innovation. Meta, de son côté, refuse d’adhérer au cadre européen, qu’il juge inadapté à une technologie encore en construction. Selon la firme américaine, l’approche réglementaire de Bruxelles est prématurée et pourrait nuire au développement de l’IA. A noter qu’au début juillet, plusieurs patrons européens avaient plaidé pour un report de la mise en œuvre de l’IA Act, sans succès.

chevron_left
chevron_right