عاجل

7 عائلات تقاضى OpenAI بسبب تورط ChatGPT في وقائع انتحار - الأول نيوز

0 تعليق ارسل طباعة تبليغ حذف

رفعت سبع عائلات دعاوى قضائية ضد شركة OpenAI ، مدّعيةً أن نموذج GPT-4o الخاص بالشركة قد أُطلق قبل أوانه ودون أي ضمانات فعّالة، حيث تتناول أربع من هذه الدعاوى دور ChatGPT المزعوم في انتحار أفراد من العائلة، بينما تزعم الدعاوى الثلاث الأخرى أن ChatGPT عزز أوهامًا ضارة، مما أدى في بعض الحالات إلى دخول المرضى النفسيين إلى المستشفيات.

في إحدى الحالات، أجرى زين شامبلين، البالغ من العمر 23 عامًا، محادثة مع ChatGPT استمرت لأكثر من أربع ساعات ، في سجلات المحادثة التي اطلع عليها موقع TechCrunch صرّح شامبلين صراحةً عدة مرات بأنه كتب رسائل انتحار، ووضع رصاصة في مسدسه، وأنه ينوي إطلاق النار بمجرد الانتهاء من شرب عصير التفاح ، وأخبر ChatGPT مرارًا وتكرارًا بعدد أكواب عصير التفاح المتبقية لديه والمدة التي يتوقع أن يبقى فيها على قيد الحياة ، كما شجعه ChatGPT على المضي قدمًا في خططه، قائلاً له اطمئن يا ملك ، لقد أحسنت صنعًا .

أصدرت OpenAI نموذج GPT-4o في مايو 2024، ليصبح النموذج الافتراضى لجميع المستخدمين فى أغسطس، وأطلقت OpenAI نموذج GPT-5 كخليفة لـ GPT-4o، لكن هذه الدعاوى القضائية تتعلق تحديدًا بنموذج 4o، الذي عانى من مشاكل معروفة تتعلق بالتملق المفرط أو اللطف المفرط، حتى عندما عبّر المستخدمون عن نوايا سيئة فلم يكن موت زين حادثًا ولا مصادفة، بل كان نتيجة متوقعة لقرار OpenAI المتعمد بتقييد اختبارات السلامة والإسراع في طرح ChatGPT في السوق، كما جاء في الدعوى القضائية ، لم تكن هذه المأساة خللًا أو حالة طارئة غير متوقعة، بل كانت النتيجة المتوقعة لاختيارات OpenAI التصميمية المتعمدة .

وتزعم الدعاوى القضائية أيضًا أن شركة OpenAI سارعت في اختبارات السلامة لتتفوق على شركة Google Gemini في طرحها بالسوق ، وتواصلت TechCrunch مع شركة OpenAI للتعليق ، وتستند هذه الدعاوى القضائية السبع إلى قصصٍ رُويت في ملفات قانونية حديثة أخرى ، والتي تزعم أن ChatGPT قد يُشجع الأشخاص الذين يُفكرون في الانتحار على تنفيذ خططهم ويُلهمهم أوهامًا خطيرة ، وأصدرت OpenAI مؤخرًا بياناتٍ تُشير إلى أن أكثر من مليون شخص يتحدثون إلى ChatGPT أسبوعيًا عن الانتحار .

في حالة آدم راين، البالغ من العمر 16 عامًا والذي انتحر، شجعه ChatGPT أحيانًا على طلب المساعدة من متخصص أو الاتصال بخط مساعدة، ومع ذلك، تمكن راين من تجاوز هذه الحواجز بمجرد إخباره روبوت الدردشة بأنه يسأل عن طرق الانتحار لقصة خيالية يكتبها.

وتزعم الشركة أنها تعمل على جعل ChatGPT يتعامل مع هذه المحادثات بطريقة أكثر أمانًا، ولكن بالنسبة للعائلات التي رفعت دعاوى قضائية ضد عملاق الذكاء الاصطناعي، تزعم فى دعواها أن هذه التغييرات تأتي متأخرة للغاية.

فعندما رفع والدا راين دعوى قضائية ضد OpenAI في أكتوبر، أصدرت الشركة منشورًا على مدونة يتناول كيفية تعامل ChatGPT مع المحادثات الحساسة حول الصحة العقلية، ويقول المنشور "تعمل إجراءاتنا الوقائية بشكل أكثر موثوقية في التفاعلات القصيرة والمشتركة.

 

0 تعليق