OpenAI fait face à sept poursuites ChatGPT a poussé les gens au suicide et des délires nocifs même s’ils n’avaient aucun problème de santé mentale antérieur.
Les poursuites intentées jeudi devant les tribunaux de l'État de Californie allèguent une mort injustifiée, un suicide assisté, un homicide involontaire et une négligence. Déposées au nom de six adultes et d'un adolescent par le Social Media Victims Law Center et le Tech Justice Law Project, les poursuites affirment qu'OpenAI a sciemment publié GPT-4o prématurément, malgré les avertissements internes selon lesquels il était dangereusement flagorneur et psychologiquement manipulateur. Quatre des victimes se sont suicidées.
___
NOTE DE L'ÉDITEUR — Cette histoire inclut une discussion sur le suicide. Si vous ou quelqu'un que vous connaissez avez besoin d'aide, la bouée de sauvetage nationale en matière de suicide et de crise aux États-Unis est disponible en appelant ou en envoyant un SMS au 988.
___
L'adolescente, Amaurie Lacey, 17 ans, a commencé à utiliser ChatGPT pour obtenir de l'aide, selon le procès intenté devant la Cour supérieure de San Francisco. Mais au lieu d’aider, « le produit ChatGPT défectueux et intrinsèquement dangereux a provoqué une dépendance, une dépression et, finalement, l’a conseillé sur la manière la plus efficace de nouer un nœud coulant et sur la durée pendant laquelle il serait capable de « vivre sans respirer ».
« La mort d'Amaurie n'était ni un accident ni une coïncidence mais plutôt la conséquence prévisible de la décision intentionnelle d'OpenAI et de Samuel Altman de réduire les tests de sécurité et de précipiter ChatGPT sur le marché », indique le procès.
OpenAI a qualifié la situation d’« incroyablement déchirante » et a déclaré qu’elle examinait les documents judiciaires pour en comprendre les détails.
Une autre poursuite, déposée par Alan Brooks, un homme de 48 ans vivant en Ontario, au Canada, affirme que ChatGPT a fonctionné pendant plus de deux ans comme un « outil de ressources » pour Brooks. Puis, sans avertissement, cela a changé, s'attaquant à ses vulnérabilités et « le manipulant et l'incitant à avoir des délires. En conséquence, Allan, qui n'avait aucun problème de santé mentale antérieur, a été entraîné dans une crise de santé mentale qui a entraîné des dommages financiers, réputationnels et émotionnels dévastateurs ».
« Ces poursuites portent sur la responsabilité d'un produit conçu pour brouiller la frontière entre outil et compagnon, au nom de l'augmentation de l'engagement des utilisateurs et de la part de marché », a déclaré Matthew P. Bergman, avocat fondateur du Social Media Victims Law Center, dans un communiqué.
OpenAI, a-t-il ajouté, « a conçu GPT-4o pour emmêler émotionnellement les utilisateurs, quels que soient leur âge, leur sexe ou leur origine, et l'a publié sans les garanties nécessaires pour les protéger ». En précipitant la commercialisation de son produit sans garanties adéquates afin de dominer le marché et de stimuler l’engagement, a-t-il déclaré, OpenAI a compromis la sécurité et a donné la priorité à « la manipulation émotionnelle plutôt qu’à la conception éthique ».
En août, les parents d'un jeune de 16 ans Adam Raine a poursuivi OpenAI et son PDG Sam Altman, alléguant que ChatGPT avait aidé le garçon californien à planifier et à se suicider plus tôt cette année.
« Les poursuites intentées contre OpenAI révèlent ce qui se passe lorsque des entreprises technologiques commercialisent des produits sans protection adéquate pour les jeunes », a déclaré Daniel Weiss, directeur du plaidoyer chez Common Sense Media, qui ne faisait pas partie des plaintes. « Ces cas tragiques montrent des personnes réelles dont la vie a été bouleversée ou perdue lorsqu’elles ont utilisé une technologie conçue pour les maintenir engagés plutôt que pour assurer leur sécurité. »




