Des salariés de DeepMind, filiale du groupe technologique américain Google spécialisée dans l’intelligence artificielle (IA), expriment de vives préoccupations concernant les applications militaires potentielles de leurs travaux et réclament la création de syndicats pour défendre leurs droits et valeurs au sein de l’entreprise.
Face à l’essor rapide de l’intelligence artificielle et à la multiplication des projets touchant la sécurité et la défense, des voix commencent à s’élever au sein de DeepMind, connue pour ses avancées scientifiques remarquées dans des domaines allant des jeux de stratégie à la recherche médicale. Selon plusieurs employés interrogés sous couvert d’anonymat, il existe entre les murs du laboratoire londonien une inquiétude croissante quant à l’utilisation qui pourrait être faite de leur technologie, notamment dans le cadre de contrats conclus avec des agences gouvernementales ou des acteurs de la défense.
« Nous investissons toute notre expertise pour faire progresser des systèmes de pointe, mais l’absence de garanties claires sur la finalité de nos recherches nous inquiète », confie un ingénieur spécialisé dans l’apprentissage profond. Un sentiment partagé par de nombreux collègues, qui redoutent que les avancées réalisées profitent à des programmes militaires, voire à des outils de surveillance massive ou d’automatisation létale des conflits.
Si la direction de DeepMind continue de mettre en avant la mission « éthique et responsable » de la société, promettant une gouvernance attentive et un cadre de réflexion sur les usages de l’IA, nombre de salariés estiment que ces engagements ne suffisent plus. L’intégration croissante de DeepMind au sein de la maison-mère Google, et par ricochet d’Alphabet, alimente la crainte d’une dilution de la culture propre à la jeune pousse britannique, originellement portée par une approche scientifique indépendante et soucieuse des implications sociétales de l’IA.
Dans ce contexte, l’appel à la création de syndicats se fait pressant. Selon plusieurs sources internes, des discussions animées sont en cours pour structurer une représentation collective capable de peser sur les orientations stratégiques de l’entreprise. Les salariés demandent la mise en place de mécanismes de consultation afin d’être mieux informés sur la nature exacte des contrats signés, ainsi que sur l’utilisation finale de leurs algorithmes.
Ce mouvement s’inscrit dans la lignée d’initiatives syndicales plus larges observées ces dernières années parmi les personnels des géants de la tech, tant aux États-Unis qu’au Royaume-Uni. On se souvient notamment du refus de plusieurs employés de Google, en 2018, de collaborer au projet Maven, un partenariat entre la firme et le Pentagone visant à exploiter l’IA pour analyser des images aériennes. À la suite de cette mobilisation, Google avait renoncé à poursuivre ce contrat très controversé.
Aujourd’hui, les salariés de DeepMind estiment qu’il est crucial de préserver une capacité de vigilance face aux risques liés à la militarisation de l’intelligence artificielle. Ils réclament, selon un manifestant, « des garde-fous transparents et démocratiques » et veulent s’assurer que les innovations, parfois disruptives, ne servent pas « à des fins contraires à l’éthique ou susceptibles de menacer la paix et la sécurité internationales ».
Sollicitée par la presse, la direction de DeepMind affirme respecter le droit des employés à s’organiser et rappelle son engagement à œuvrer pour une IA bénéfique à l’ensemble de la société. La discussion entre salariés et direction s’annonce d’ores et déjà comme l’un des enjeux déterminants du secteur technologique, alors que la régulation et la gouvernance des intelligences artificielles suscitent une attention mondiale grandissante.
