Google change de cap, ouvrant la porte aux armes et à la surveillance via l’IA

Dans une mise à jour de ses principes en matière d’IA, Google omet ostensiblement une interdiction antérieure de développer des armes d’IA ou des technologies de surveillance.

Google dont le code de conduite s’ouvrait sur les mots « Don’t be evil » (ne soyez pas méchant) ouvre désormais la porte à l’aide à la création d’armes et de systèmes de surveillance alimentés par l’IA. Les modifications apportées à la déclaration des principes de l’entreprise en matière d’IA, présentées dans un billet de blog mardi, suppriment l’interdiction antérieure de s’engager dans de telles activités, ce qui laisse à l’entreprise une plus grande marge de manœuvre dans un domaine éthique qui l’a souvent amenée à entrer en conflit avec son propre personnelL’article de blog de Demis Hassabis, CEO de Google DeepMind, et de James Manyika, vice-président de Google chargé de la recherche, des laboratoires, de la technologie et de la société, a contourné l’omission en se concentrant sur trois principes fondamentaux : l’innovation audacieuse, le développement et le déploiement responsables, et la collaboration pour progresser ensemble.

Dans le texte intégral des nouveaux principes de Google en matière d’IA, la section sur le développement et le déploiement responsables indique que « cela signifie mettre en œuvre une surveillance humaine appropriée, une diligence raisonnable et des mécanismes de retour d’information pour s’aligner sur les objectifs des utilisateurs, la responsabilité sociale et les principes largement acceptés du droit international et des droits de l’homme.» Les précédents principes de Google en matière d’IA, archivés par la Wayback Machine (un service en ligne qui permet d’accéder à des archives de pages web datant de différentes périodes), énonçaient sept principes et ajoutaient quatre interdictions sous le titre « Applications de l’IA que nous ne poursuivrons pas ». Ces interdictions interdisaient le développement d’armes ou d’autres technologies dont l’objectif principal serait de causer ou de faciliter directement des blessures aux personnes, ainsi que les technologies qui recueillent ou utilisent des informations à des fins de surveillance en violation des normes internationalement reconnues.

Ces interdictions sont notablement absentes des nouveaux principes. Il y a un an, OpenAI a également supprimé l’interdiction qu’elle s’était imposée d’utiliser sa technologie à des fins militaires.

chevron_left
chevron_right