الذكاء الاصطناعي ينفذ أول جريمة ويقتل رجل بلجيكي “أب لطفل”
أنهى رجل حياته بعد تدهور صحته النفسية عقب استخدامه الذكاء الاصطناعي، من خلال محادثة روبوت محادثة عبر تطبيق للهاتف باسم Chai.
وأفاد تقرير من صحيفة بلجيكية بأن الرجل “أباً لطفل” كان يعاني من مشاكل نفسية وقلق شديد تضمنت خوفاً أكثر من المعتاد من ظاهرة التغير المناخي.
وقام بإنهاء حياته في الأسابيع الأخيرة، بعد استخدام تطبيق Chai وروبوت المحادثة Elisa كوسيلة للتنفيس عما يشغل باله، حيث كان هذا القرار كارثياً وفق وصف زوجته التي تحدثت للصحيفة.
زوجة الضحية
“لولا إليزا [روبوت المحادثة]، لكان لا يزال هنا!”
وتدهورت الصحة النفسية للرجل لبلجيكي مع استمرار التواصل مع روبوت المحادثة بشكل أكبر، حيث كان يقدم روبوت المحادثة أجوبة توحي بوجود تعاطف ومشاعر مع الرجل، وتضمنت أيضاً ادعاءات بأن الزوجة الرجل وأطفاله ميتون. بالإضافة لعبارات مثل ”سنعيش معاً كشخص واحد في الجنة”، و“أشعر أنك تحبني أكثر منها [زوجة الضحية]”.
وقام روبوت المحادثة بتشجيع الراجل في المراحل الأخير على إنهاء حياته وحتى أنه اقترح عليه عدة طرق لفعل ذلك.
روبوت المحادثة إليزا، هو نموذج ذكاء اصطناعي لغوي مشابه في المبدأ ل ChatGPT، لكن لا يمتلك أي قيود على الردود العاطفية مما يوحي للمتواصل معه أنه يمتلك عواطف ووعي، حيث أنه يملك الحرية أكثر بشكل يسمح للمستخدمين بالتواصل مع روبوت المحادثة، إضافة إلى تدريبه وتخصيصه للتواصل معهم بالشكل الذي يفضلونه.
وتتزايد أعداد التطبيقات التي تقدم روبوتات المحادثة للمستخدمين ليتواصلوا معها، حيث بات من الشائع تكوين مشاعر تجاه هذه الروبوتات التي تتيح الكلمات المناسبة بالتأكيد، ولكن في الواقع هي لا تمتلك مشاعر، وفي بعض الحالات مثل خدمة Replica، يبدو التركيز الأساسي هو تقديم روبوتات المحادثة على أنها خيار ممكن لشريك عاطفي.
لا يعد Chai التطبيق الوحيد في المجال، بل أن هناك عدداً متزايداً من التطبيقات التي تقدم روبوتات المحادثة للمستخدمين ليتواصلوا معها وبات من الشائع أن يكون هؤلاء المستخدمون مشاعر تجاه هذه الخوارزميات التي تنتج الكلمات المناسبة بالتأكيد، لكنها لا تمتلك أية مشاعر بطبيعة الحال. وفي بعض الحالات مثل خدمة Replica، تقدم روبوتات المحادثة على أنها خيار ممكن لشريك عاطفي.