Catégories
Cybercriminels

OpenAI : Un Piratage Révélé Soulève des Inquiétudes sur la Sécurité de l’Intelligence Artificielle

La Sécurité d’OpenAI Compromise : Quelles Conséquences pour l’IA ?

En 2023, OpenAI, créateur de ChatGPT, a été victime d’une cyberattaque ciblant sa messagerie interne. Selon le New York Times, un pirate a pu accéder aux discussions internes entre les employés, sans toutefois atteindre les systèmes et le code des technologies d’intelligence artificielle de l’entreprise.

Un Piratage Révélé aux Employés, mais Pas au Public

OpenAI a informé ses employés de l’incident lors d’une réunion générale en avril 2023. L’entreprise a estimé qu’il n’était pas nécessaire de rendre public ce piratage, arguant que les informations volées ne concernaient ni les clients ni les partenaires. Par ailleurs, le pirate n’étant pas lié à un gouvernement étranger, OpenAI n’a pas jugé nécessaire d’informer les autorités américaines.

Des Craintes de Sécurité Nationale Émergent

Pour certains employés d’OpenAI, cette intrusion a soulevé des inquiétudes quant à la possibilité que des adversaires étrangers, tels que la Chine, puissent un jour voler des technologies d’IA susceptibles de menacer la sécurité nationale des États-Unis. Cette situation a également mis en lumière des fractures au sein de l’entreprise concernant la manière de gérer les risques associés à l’intelligence artificielle.

Des Mesures de Sécurité Renforcées chez OpenAI

À la suite de cette violation, Leopold Aschenbrenner, un gestionnaire de programme technique chez OpenAI, a envoyé un mémo au conseil d’administration. Il y soulignait que l’entreprise ne faisait pas suffisamment pour empêcher le vol de ses secrets par des gouvernements étrangers. Malgré cela, les études menées par OpenAI et d’autres entreprises comme Anthropic montrent que les technologies d’IA actuelles ne présentent pas de risque significatif pour la sécurité nationale.

Un Débat sur la Dangerosité de l’IA

Daniela Amodei, co-fondatrice et présidente d’Anthropic, a déclaré que les dernières technologies d’IA de son entreprise ne constitueraient pas un risque majeur si leurs conceptions étaient volées ou partagées. Selon elle, bien qu’un acteur malveillant puisse potentiellement accélérer ses projets, les dangers restent hautement spéculatifs.

Des Préoccupations à Long Terme sur l’IA

Néanmoins, certains chercheurs et dirigeants technologiques s’inquiètent depuis longtemps que l’IA puisse un jour être utilisée pour créer de nouvelles armes biologiques ou pirater des systèmes informatiques gouvernementaux. Certaines voix vont même jusqu’à craindre que l’IA puisse menacer l’humanité.

Initiatives pour Sécuriser les Technologies de Demain

En réponse à ces préoccupations, OpenAI a mis en place un comité de sécurité et de sûreté pour examiner comment gérer les risques posés par les futures technologies. Ce comité inclut Paul Nakasone, ancien général de l’armée et ancien directeur de la NSA et du Cyber Command. Il a également été nommé au conseil d’administration d’OpenAI.

« Nous avons commencé à investir dans la sécurité des années avant ChatGPT », a déclaré un représentant d’OpenAI. « Nous nous engageons non seulement à comprendre les risques et à les anticiper, mais aussi à renforcer notre résilience. »

Vers une Réglementation Gouvernementale

Les responsables fédéraux et les législateurs d’État poussent également vers des régulations gouvernementales qui interdiraient la diffusion de certaines technologies d’IA et imposeraient des amendes conséquentes si ces technologies causent des dommages. Cependant, selon les experts, ces dangers sont encore éloignés de plusieurs années, voire décennies.

Source

Laisser un commentaire