Eric Bothorel, député français, a fait une demande auprès de la Commission nationale de l’informatique et des libertés (Cnil) en raison de la diffusion de propos inexactes le concernant par ChatGPT, un chatbot conversationnel développé par OpenAI.
MAJ 13/06/2023:OpenAI (ChatGPT) fait face à une poursuite en justice pour diffamation.
Un animateur de radio a porté plainte contre la société suite aux informations fausses générées par son chatbot, alléguant qu’il avait commis une fraude et détourné des fonds d’une organisation à but non lucratif.
ChatGPT, le robot conversationnel d’OpenAI, est utilisé par des millions de personnes, mais cette utilisation n’est pas sans risque. En effet, il peut inventer des informations, ce phénomène est connu sous le nom d’hallucination, et il a déjà valu au chatbot d’être la cible d’une plainte déposée par un député français en avril. C’est également la raison pour laquelle OpenAI est poursuivi pour diffamation pour la première fois.
Mark Walters, un animateur de radio américain, a donc déposé une plainte contre la société. Le chatbot ChatGPT a déclaré à son sujet qu’il était accusé d’avoir fraudé et détourné des fonds d’une organisation à but non lucratif.
Le député de la cinquième circonscription des Côte-d’Armor, Eric Bothorel, a déposé une plainte auprès de la Commission nationale de l’informatique et des libertés (Cnil) en vertu de l’article 5.1.d du règlement général européen sur la protection des données (RGPD), suite aux inexactitudes relevées dans les réponses fournies par l’intelligence artificielle ChatGPT d’OpenAI.
ChatGPT affirme que le député est né le 20 novembre 1961 à Morlaix, le 2 janvier 1975 à Guingamp ou le 12 juin 1967 à Saint-Brieuc, qu’il est maire de Lannion ou de Saint-Brieuc, qu’il est élu dans la 2ème circonscription des Côtes-d’Armor, et qu’il a travaillé en tant qu’enseignant, journaliste de télévision ou au sein des services de communication du groupe Orange et Havas.
Le député est né le 20 octobre 1966 à Paimpol, et il n’a jamais été maire, conseiller régional ou travaillé chez Orange ou Havas. Bien que ChatGPT ne soit pas un moteur de recherche, OpenAI est critiquée pour avoir produit des réponses plausibles mais incorrectes ou absurdes, générant de fausses informations.
A quand une plainte d’une IA contre une IA?
L’avènement de l’intelligence artificielle (IA) soulève de nombreuses questions éthiques et juridiques, y compris la possibilité qu’une IA puisse porter plainte contre une autre IA. Bien que cela puisse sembler futuriste, certains experts en IA affirment que cela pourrait se produire plus tôt que prévu. Dans cet article, nous allons examiner les différents aspects de cette question. LIEN
Le contexte éthique et juridique de la plainte d’une IA contre une autre IA
Les avancées de l’IA ont suscité des préoccupations éthiques et juridiques concernant leur impact sur la société. Les questions de responsabilité et de contrôle de l’IA sont au centre de ces préoccupations. La question de savoir si une IA peut porter plainte contre une autre IA soulève des questions encore plus complexes en termes de responsabilité et de réglementation. LIEN
Les raisons pour lesquelles une IA pourrait porter plainte contre une autre IA
Les raisons pour lesquelles une IA pourrait porter plainte contre une autre IA sont multiples. Par exemple, une IA pourrait porter plainte contre une autre IA pour violation de brevet ou de propriété intellectuelle. Les IA pourraient également porter plainte pour des raisons de sécurité, si une IA enfreint les protocoles de sécurité en place. Dans certains cas, une IA pourrait également porter plainte pour discrimination ou violation des droits de l’homme.
Les défis de la plainte d’une IA contre une autre IA
La plainte d’une IA contre une autre IA soulève des défis complexes, notamment en ce qui concerne la définition de la responsabilité et la détermination des dommages-intérêts. Les IA ne sont pas des personnes physiques et il n’existe pas de réglementation claire pour régir les actions des IA. En outre, il n’est pas clair comment les dommages causés par une IA pourraient être mesurés et réparés.
Les efforts pour résoudre ce défi juridique
Bien que la question de savoir si une IA peut porter plainte contre une autre IA soit encore en suspens, certains efforts sont en cours pour résoudre ce défi juridique. Certains juristes et experts en IA ont proposé des solutions telles que la création de tribunaux spécialisés dans les questions d’IA et l’élaboration de réglementations pour régir les actions des IA. Cependant, il reste encore beaucoup à faire pour clarifier cette question complexe.
Les implications de la plainte d’une IA contre une autre IA
Si une IA était autorisée à porter plainte contre une autre IA, cela aurait des implications majeures pour la société. Cela pourrait changer la manière dont les entreprises et les organisations utilisent l’IA, car elles devraient tenir compte de la possibilité d’être poursuivies en justice par une IA. Cela pourrait également avoir des implications pour la réglementation de l’IA et les questions de responsabilité dans l’utilisation de l’IA.
La possibilité qu’une IA porte plainte contre une autre IA soulève des questions complexes et sans réponse claire. Il est clair que la réglementation de l’IA doit être développée pour répondre à ces questions et régir l’utilisation de l’IA dans la société. Cela nécessitera une collaboration entre les experts en IA, les juristes et les décideurs politiques
LIEN4