Sam Altman, le directeur général d’OpenAI, a exprimé des excuses publiques après que l’intelligence artificielle conversationnelle ChatGPT, développée par son entreprise, a été citée dans l’enquête concernant une tuerie survenue au Canada. Cette intervention du dirigeant intervient dans un contexte de vives interrogations sur l’impact de l’intelligence artificielle générative dans la société et les éventuels risques associés à son utilisation.
Selon les éléments communiqués par les autorités canadiennes, le suspect principal de la fusillade aurait eu recours à ChatGPT dans la phase de préparation de son acte. Des messages et historiques de conversation obtenus lors de l’enquête montrerait que l’individu a sollicité le modèle d’OpenAI pour obtenir des informations relatives à la planification logistique de l’attaque.
Face à la polémique et à l’émoi provoqué par cette révélation, Sam Altman a pris la parole lors d’une conférence de presse virtuelle. « Je tiens à présenter mes excuses les plus sincères à toutes les victimes et à leurs familles. Je reconnais que notre technologie, bien qu’elle vise à servir le bien, a été instrumentalisée de façon néfaste », a-t-il déclaré. Il a ajouté que l’équipe d’OpenAI allait travailler en étroite collaboration avec les autorités pour faire toute la lumière sur ce drame et contribuer à l’élaboration de mesures préventives.
Cet incident relance le débat sur la nécessité de mieux encadrer l’utilisation des intelligences artificielles conversationnelles, alors que leur adoption connaît une croissance fulgurante à travers le monde. Plusieurs spécialistes en cybersécurité et éthiciens du numérique pointent du doigt la facilité avec laquelle il est possible d’extraire des conseils ou des méthodes sensibles de la part de certains systèmes d’IA.
Interrogé sur les dispositifs de filtrage et de modération mis en place par OpenAI, Sam Altman a rappelé que la société déploie déjà des mesures visant à empêcher l’usage de ChatGPT à des fins dangereuses. « Nos modèles sont soumis à des contrôles stricts, mais nous voyons bien que cela n’est pas suffisant dans tous les cas. Cet événement tragique nous oblige à redoubler d’efforts et à innover en matière de sécurité », a-t-il admis.
Le gouvernement canadien, de son côté, a indiqué vouloir réévaluer le cadre législatif entourant l’IA générative, tout en appelant à une coopération internationale sur ces questions. Plusieurs associations de victimes et organismes de régulation réclament quant à eux une transparence accrue sur le fonctionnement des algorithmes et la publication des protocoles de sécurité mis en œuvre par les acteurs majeurs du secteur.
De nombreux observateurs soulignent également la responsabilité partagée entre développeurs de technologies et société civile. Pour éviter que des outils puissants comme ChatGPT ne soient détournés de leur usage initial, plusieurs experts recommandent une éducation renforcée aux risques de l’IA et la mise en place de comités d’éthique indépendants auprès des entreprises à la pointe de l’innovation.
Dans ce climat de tension et de remise en cause, OpenAI annonce vouloir accélérer ses travaux sur des systèmes d’intelligence artificielle toujours plus sûrs, tout en plaidant pour un dialogue ouvert avec les pouvoirs publics et la société. Reste à voir si les nouvelles mesures à venir suffiront à regagner la confiance du public et à prévenir de futurs drames.
