Catégories
Professionnel

L’armée américaine lance un concours pour développer des systèmes de cybersécurité basés sur l’IA

Le département américain de la Défense a lancé un concours pour développer des systèmes de cybersécurité capables de défendre automatiquement tout type de logiciel contre les attaques. Le concours, baptisé AI Cyber Challenge, est doté d’une enveloppe globale de 18,5 millions de dollars.

La DARPA lance un concours pour mettre l'IA au service de la cybersécurité

Le département américain de la Défense a lancé un concours pour développer des systèmes de cybersécurité basés sur l’IA. Le concours, baptisé AI Cyber Challenge, est doté d’une enveloppe globale de 18,5 millions de dollars. Les équipes participantes devront développer des systèmes capables de défendre automatiquement tout type de logiciel contre les attaques. Le concours se déroulera en deux phases : une phase de qualification au printemps 2024, puis une phase finale à la DEF CON de 2025. Les équipes gagnantes recevront des prix allant jusqu’à 4 millions de dollars.

Catégories
Etude informatique Mairie Orange presse Sécurité

ChatGPT est visé par une plainte déposée par un député, à quand une plainte d’une IA contre une IA?

Eric Bothorel, député français, a fait une demande auprès de la Commission nationale de l’informatique et des libertés (Cnil) en raison de la diffusion de propos inexactes le concernant par ChatGPT, un chatbot conversationnel développé par OpenAI.

MAJ 13/06/2023:OpenAI (ChatGPT) fait face à une poursuite en justice pour diffamation.

Un animateur de radio a porté plainte contre la société suite aux informations fausses générées par son chatbot, alléguant qu’il avait commis une fraude et détourné des fonds d’une organisation à but non lucratif.

ChatGPT, le robot conversationnel d’OpenAI, est utilisé par des millions de personnes, mais cette utilisation n’est pas sans risque. En effet, il peut inventer des informations, ce phénomène est connu sous le nom d’hallucination, et il a déjà valu au chatbot d’être la cible d’une plainte déposée par un député français en avril. C’est également la raison pour laquelle OpenAI est poursuivi pour diffamation pour la première fois.

Mark Walters, un animateur de radio américain, a donc déposé une plainte contre la société. Le chatbot ChatGPT a déclaré à son sujet qu’il était accusé d’avoir fraudé et détourné des fonds d’une organisation à but non lucratif.

LIEN

Le député de la cinquième circonscription des Côte-d’Armor, Eric Bothorel, a déposé une plainte auprès de la Commission nationale de l’informatique et des libertés (Cnil) en vertu de l’article 5.1.d du règlement général européen sur la protection des données (RGPD), suite aux inexactitudes relevées dans les réponses fournies par l’intelligence artificielle ChatGPT d’OpenAI.

ChatGPT affirme que le député est né le 20 novembre 1961 à Morlaix, le 2 janvier 1975 à Guingamp ou le 12 juin 1967 à Saint-Brieuc, qu’il est maire de Lannion ou de Saint-Brieuc, qu’il est élu dans la 2ème circonscription des Côtes-d’Armor, et qu’il a travaillé en tant qu’enseignant, journaliste de télévision ou au sein des services de communication du groupe Orange et Havas.

Le député est né le 20 octobre 1966 à Paimpol, et il n’a jamais été maire, conseiller régional ou travaillé chez Orange ou Havas. Bien que ChatGPT ne soit pas un moteur de recherche, OpenAI est critiquée pour avoir produit des réponses plausibles mais incorrectes ou absurdes, générant de fausses informations.

A quand une plainte d’une IA contre une IA?

L’avènement de l’intelligence artificielle (IA) soulève de nombreuses questions éthiques et juridiques, y compris la possibilité qu’une IA puisse porter plainte contre une autre IA. Bien que cela puisse sembler futuriste, certains experts en IA affirment que cela pourrait se produire plus tôt que prévu. Dans cet article, nous allons examiner les différents aspects de cette question. LIEN

Le contexte éthique et juridique de la plainte d’une IA contre une autre IA

Les avancées de l’IA ont suscité des préoccupations éthiques et juridiques concernant leur impact sur la société. Les questions de responsabilité et de contrôle de l’IA sont au centre de ces préoccupations. La question de savoir si une IA peut porter plainte contre une autre IA soulève des questions encore plus complexes en termes de responsabilité et de réglementation. LIEN

Les raisons pour lesquelles une IA pourrait porter plainte contre une autre IA

Les raisons pour lesquelles une IA pourrait porter plainte contre une autre IA sont multiples. Par exemple, une IA pourrait porter plainte contre une autre IA pour violation de brevet ou de propriété intellectuelle. Les IA pourraient également porter plainte pour des raisons de sécurité, si une IA enfreint les protocoles de sécurité en place. Dans certains cas, une IA pourrait également porter plainte pour discrimination ou violation des droits de l’homme.

Les défis de la plainte d’une IA contre une autre IA

La plainte d’une IA contre une autre IA soulève des défis complexes, notamment en ce qui concerne la définition de la responsabilité et la détermination des dommages-intérêts. Les IA ne sont pas des personnes physiques et il n’existe pas de réglementation claire pour régir les actions des IA. En outre, il n’est pas clair comment les dommages causés par une IA pourraient être mesurés et réparés.

Les efforts pour résoudre ce défi juridique

Bien que la question de savoir si une IA peut porter plainte contre une autre IA soit encore en suspens, certains efforts sont en cours pour résoudre ce défi juridique. Certains juristes et experts en IA ont proposé des solutions telles que la création de tribunaux spécialisés dans les questions d’IA et l’élaboration de réglementations pour régir les actions des IA. Cependant, il reste encore beaucoup à faire pour clarifier cette question complexe.

Les implications de la plainte d’une IA contre une autre IA

Si une IA était autorisée à porter plainte contre une autre IA, cela aurait des implications majeures pour la société. Cela pourrait changer la manière dont les entreprises et les organisations utilisent l’IA, car elles devraient tenir compte de la possibilité d’être poursuivies en justice par une IA. Cela pourrait également avoir des implications pour la réglementation de l’IA et les questions de responsabilité dans l’utilisation de l’IA.

La possibilité qu’une IA porte plainte contre une autre IA soulève des questions complexes et sans réponse claire. Il est clair que la réglementation de l’IA doit être développée pour répondre à ces questions et régir l’utilisation de l’IA dans la société. Cela nécessitera une collaboration entre les experts en IA, les juristes et les décideurs politiques

LIEN1

LIEN2

LIEN3

LIEN4