Catégories
Cybercriminels

OpenAI : Un Piratage Révélé Soulève des Inquiétudes sur la Sécurité de l’Intelligence Artificielle

La Sécurité d’OpenAI Compromise : Quelles Conséquences pour l’IA ?

En 2023, OpenAI, créateur de ChatGPT, a été victime d’une cyberattaque ciblant sa messagerie interne. Selon le New York Times, un pirate a pu accéder aux discussions internes entre les employés, sans toutefois atteindre les systèmes et le code des technologies d’intelligence artificielle de l’entreprise.

Un Piratage Révélé aux Employés, mais Pas au Public

OpenAI a informé ses employés de l’incident lors d’une réunion générale en avril 2023. L’entreprise a estimé qu’il n’était pas nécessaire de rendre public ce piratage, arguant que les informations volées ne concernaient ni les clients ni les partenaires. Par ailleurs, le pirate n’étant pas lié à un gouvernement étranger, OpenAI n’a pas jugé nécessaire d’informer les autorités américaines.

Des Craintes de Sécurité Nationale Émergent

Pour certains employés d’OpenAI, cette intrusion a soulevé des inquiétudes quant à la possibilité que des adversaires étrangers, tels que la Chine, puissent un jour voler des technologies d’IA susceptibles de menacer la sécurité nationale des États-Unis. Cette situation a également mis en lumière des fractures au sein de l’entreprise concernant la manière de gérer les risques associés à l’intelligence artificielle.

Des Mesures de Sécurité Renforcées chez OpenAI

À la suite de cette violation, Leopold Aschenbrenner, un gestionnaire de programme technique chez OpenAI, a envoyé un mémo au conseil d’administration. Il y soulignait que l’entreprise ne faisait pas suffisamment pour empêcher le vol de ses secrets par des gouvernements étrangers. Malgré cela, les études menées par OpenAI et d’autres entreprises comme Anthropic montrent que les technologies d’IA actuelles ne présentent pas de risque significatif pour la sécurité nationale.

Un Débat sur la Dangerosité de l’IA

Daniela Amodei, co-fondatrice et présidente d’Anthropic, a déclaré que les dernières technologies d’IA de son entreprise ne constitueraient pas un risque majeur si leurs conceptions étaient volées ou partagées. Selon elle, bien qu’un acteur malveillant puisse potentiellement accélérer ses projets, les dangers restent hautement spéculatifs.

Des Préoccupations à Long Terme sur l’IA

Néanmoins, certains chercheurs et dirigeants technologiques s’inquiètent depuis longtemps que l’IA puisse un jour être utilisée pour créer de nouvelles armes biologiques ou pirater des systèmes informatiques gouvernementaux. Certaines voix vont même jusqu’à craindre que l’IA puisse menacer l’humanité.

Initiatives pour Sécuriser les Technologies de Demain

En réponse à ces préoccupations, OpenAI a mis en place un comité de sécurité et de sûreté pour examiner comment gérer les risques posés par les futures technologies. Ce comité inclut Paul Nakasone, ancien général de l’armée et ancien directeur de la NSA et du Cyber Command. Il a également été nommé au conseil d’administration d’OpenAI.

« Nous avons commencé à investir dans la sécurité des années avant ChatGPT », a déclaré un représentant d’OpenAI. « Nous nous engageons non seulement à comprendre les risques et à les anticiper, mais aussi à renforcer notre résilience. »

Vers une Réglementation Gouvernementale

Les responsables fédéraux et les législateurs d’État poussent également vers des régulations gouvernementales qui interdiraient la diffusion de certaines technologies d’IA et imposeraient des amendes conséquentes si ces technologies causent des dommages. Cependant, selon les experts, ces dangers sont encore éloignés de plusieurs années, voire décennies.

Source

Catégories
Professionnel

L’armée américaine lance un concours pour développer des systèmes de cybersécurité basés sur l’IA

Le département américain de la Défense a lancé un concours pour développer des systèmes de cybersécurité capables de défendre automatiquement tout type de logiciel contre les attaques. Le concours, baptisé AI Cyber Challenge, est doté d’une enveloppe globale de 18,5 millions de dollars.

La DARPA lance un concours pour mettre l'IA au service de la cybersécurité

Le département américain de la Défense a lancé un concours pour développer des systèmes de cybersécurité basés sur l’IA. Le concours, baptisé AI Cyber Challenge, est doté d’une enveloppe globale de 18,5 millions de dollars. Les équipes participantes devront développer des systèmes capables de défendre automatiquement tout type de logiciel contre les attaques. Le concours se déroulera en deux phases : une phase de qualification au printemps 2024, puis une phase finale à la DEF CON de 2025. Les équipes gagnantes recevront des prix allant jusqu’à 4 millions de dollars.

Catégories
Etude informatique Mairie Orange presse Sécurité

ChatGPT est visé par une plainte déposée par un député, à quand une plainte d’une IA contre une IA?

Eric Bothorel, député français, a fait une demande auprès de la Commission nationale de l’informatique et des libertés (Cnil) en raison de la diffusion de propos inexactes le concernant par ChatGPT, un chatbot conversationnel développé par OpenAI.

MAJ 13/06/2023:OpenAI (ChatGPT) fait face à une poursuite en justice pour diffamation.

Un animateur de radio a porté plainte contre la société suite aux informations fausses générées par son chatbot, alléguant qu’il avait commis une fraude et détourné des fonds d’une organisation à but non lucratif.

ChatGPT, le robot conversationnel d’OpenAI, est utilisé par des millions de personnes, mais cette utilisation n’est pas sans risque. En effet, il peut inventer des informations, ce phénomène est connu sous le nom d’hallucination, et il a déjà valu au chatbot d’être la cible d’une plainte déposée par un député français en avril. C’est également la raison pour laquelle OpenAI est poursuivi pour diffamation pour la première fois.

Mark Walters, un animateur de radio américain, a donc déposé une plainte contre la société. Le chatbot ChatGPT a déclaré à son sujet qu’il était accusé d’avoir fraudé et détourné des fonds d’une organisation à but non lucratif.

LIEN

Le député de la cinquième circonscription des Côte-d’Armor, Eric Bothorel, a déposé une plainte auprès de la Commission nationale de l’informatique et des libertés (Cnil) en vertu de l’article 5.1.d du règlement général européen sur la protection des données (RGPD), suite aux inexactitudes relevées dans les réponses fournies par l’intelligence artificielle ChatGPT d’OpenAI.

ChatGPT affirme que le député est né le 20 novembre 1961 à Morlaix, le 2 janvier 1975 à Guingamp ou le 12 juin 1967 à Saint-Brieuc, qu’il est maire de Lannion ou de Saint-Brieuc, qu’il est élu dans la 2ème circonscription des Côtes-d’Armor, et qu’il a travaillé en tant qu’enseignant, journaliste de télévision ou au sein des services de communication du groupe Orange et Havas.

Le député est né le 20 octobre 1966 à Paimpol, et il n’a jamais été maire, conseiller régional ou travaillé chez Orange ou Havas. Bien que ChatGPT ne soit pas un moteur de recherche, OpenAI est critiquée pour avoir produit des réponses plausibles mais incorrectes ou absurdes, générant de fausses informations.

A quand une plainte d’une IA contre une IA?

L’avènement de l’intelligence artificielle (IA) soulève de nombreuses questions éthiques et juridiques, y compris la possibilité qu’une IA puisse porter plainte contre une autre IA. Bien que cela puisse sembler futuriste, certains experts en IA affirment que cela pourrait se produire plus tôt que prévu. Dans cet article, nous allons examiner les différents aspects de cette question. LIEN

Le contexte éthique et juridique de la plainte d’une IA contre une autre IA

Les avancées de l’IA ont suscité des préoccupations éthiques et juridiques concernant leur impact sur la société. Les questions de responsabilité et de contrôle de l’IA sont au centre de ces préoccupations. La question de savoir si une IA peut porter plainte contre une autre IA soulève des questions encore plus complexes en termes de responsabilité et de réglementation. LIEN

Les raisons pour lesquelles une IA pourrait porter plainte contre une autre IA

Les raisons pour lesquelles une IA pourrait porter plainte contre une autre IA sont multiples. Par exemple, une IA pourrait porter plainte contre une autre IA pour violation de brevet ou de propriété intellectuelle. Les IA pourraient également porter plainte pour des raisons de sécurité, si une IA enfreint les protocoles de sécurité en place. Dans certains cas, une IA pourrait également porter plainte pour discrimination ou violation des droits de l’homme.

Les défis de la plainte d’une IA contre une autre IA

La plainte d’une IA contre une autre IA soulève des défis complexes, notamment en ce qui concerne la définition de la responsabilité et la détermination des dommages-intérêts. Les IA ne sont pas des personnes physiques et il n’existe pas de réglementation claire pour régir les actions des IA. En outre, il n’est pas clair comment les dommages causés par une IA pourraient être mesurés et réparés.

Les efforts pour résoudre ce défi juridique

Bien que la question de savoir si une IA peut porter plainte contre une autre IA soit encore en suspens, certains efforts sont en cours pour résoudre ce défi juridique. Certains juristes et experts en IA ont proposé des solutions telles que la création de tribunaux spécialisés dans les questions d’IA et l’élaboration de réglementations pour régir les actions des IA. Cependant, il reste encore beaucoup à faire pour clarifier cette question complexe.

Les implications de la plainte d’une IA contre une autre IA

Si une IA était autorisée à porter plainte contre une autre IA, cela aurait des implications majeures pour la société. Cela pourrait changer la manière dont les entreprises et les organisations utilisent l’IA, car elles devraient tenir compte de la possibilité d’être poursuivies en justice par une IA. Cela pourrait également avoir des implications pour la réglementation de l’IA et les questions de responsabilité dans l’utilisation de l’IA.

La possibilité qu’une IA porte plainte contre une autre IA soulève des questions complexes et sans réponse claire. Il est clair que la réglementation de l’IA doit être développée pour répondre à ces questions et régir l’utilisation de l’IA dans la société. Cela nécessitera une collaboration entre les experts en IA, les juristes et les décideurs politiques

LIEN1

LIEN2

LIEN3

LIEN4