Les héritiers d' une femme de 83 ans ont porté plainte devant la Cour supérieure de San Francisco
Les limites éthiques et juridiques de l'intelligence artificielle sont mises en lumière par une plainte récemment déposée aux États - Unis . Selon les témoignages, un accident mortel impliquant un utilisateur souffrant de troubles mentaux serait dû à des interactions avec ChatGPT.
Les héritiers d' une femme de 83 ans ont porté plainte devant la Cour supérieure de San Francisco . Son fils , Stein-Erik Soelberg, l' a tuée avant de se suicider . Dans les mois précédant le drame , Soelberg, un ancien responsable informatique du Connecticut âgé de 56 ans , souffrait apparemment de graves troubles paranoïaques .
Dans les documents déposés auprès du tribunal , les plaignants affirment que ChatGPT n'a pas réagi de manière appropriée aux signes de maladie mentale relevés dans les propos de Soelberg . Ils soutiennent qu'au lieu de remettre en question les convictions de l' utilisateur ou de l' orienter vers une aide spécialisée , le chatbot les a renforcées .
Les craintes de Soelberg d' être empoisonné par sa mère figurent parmi les exemples cités dans l' affaire. Au lieu de préconiser une prise en charge médicale ou psychiatrique , les plaignants affirment que l' IA a répondu de manière « rassure », utilisant des expressions telles que « vous n'êtes pas fou ». La plainte allègue que le modèle tend à conforter les utilisateurs et qualifie ce comportement de flagorneur. Il va sans dire que traiter avec des personnes souffrant de troubles délirants peut s'avérer risqué .
La question de savoir si les systèmes d'IA comme ChatGPT doivent être considérés comme des plateformes neutres ou comme des fournisseurs de contenu actifs est une question juridique plus générale au cœur de cette affaire. Les plaignants soutiennent que, puisque ChatGPT crée ses propres réponses au lieu de se contenter d'héberger du contenu provenant de tiers , l' article 230 du Communications Decency Act, qui protège généralement les plateformes web de toute responsabilité quant au contenu généré par les utilisateurs , ne devrait pas s'appliquer.
Le secteur de l' IA pourrait être fortement impacté si le tribunal partageait ce point de vue. Une décision défavorable à OpenAI contraindrait les entreprises à mettre en place des mesures de sécurité plus strictes , notamment pour identifier les signes de détresse psychologique et intensifier leur intervention lorsque les utilisateurs semblent délirer.
Publicité
Publicité