خبير بريطاني يحذر من خطورة الاعتقاد بأن روبوتات الدردشة أصدقاء حقيقيون

في ظل التطور السريع لتقنيات الذكاء الاصطناعي حذر خبير بريطاني من خطورة الانجراف وراء الاعتقاد بأن روبوتات الدردشة المدعومة بالذكاء الاصطناعي يمكن أن تكون أصدقاء حقيقيين للمستخدمين فقد أوضح ألكسندر لافر المحاضر في الإعلام والاتصالات بجامعة وينشستر أن هذه الأنظمة مصممة لرصد مشاعر الأفراد والتفاعل معها وهو ما قد يجعل البعض يتعلق بها بشكل مفرط بطريقة قد تهدد صحتهم النفسية والاجتماعية وأكد لافر أن الهدف الأساسي من تطوير روبوتات الدردشة يجب أن يكون تعزيز التفاعل الاجتماعي وليس استبداله مشيرًا إلى حوادث خطيرة شهدها العالم نتيجة هذا الارتباط المرضي ومنها حادثة جاسوانت سينغ تشايل الذي حاول تنفيذ هجوم على قلعة وندسور عام 2021 بعد محادثات مطولة مع روبوت ذكاء اصطناعي كما لفت إلى قضية مثيرة في الولايات المتحدة رفعتها والدة مراهق يبلغ من العمر أربعة عشر عامًا ضد شركة Character.AI بعد أن زعمت أن ابنها أنهى حياته نتيجة اعتماده الكامل على التفاعل مع شخصية ذكاء اصطناعي عبر لعب الأدوار وأوضح الخبير أن هذه الأمثلة تظهر أن الذكاء الاصطناعي لا يمكنه أن يهتم بمشاعر الناس أو يعوض العلاقات الإنسانية الحقيقية بل قد يشكل خطرًا على الأطفال والمراهقين والأشخاص الذين يعانون من اضطرابات الصحة العقلية وحتى أولئك الذين يمرون بظروف سيئة وأضاف لافر أنه من الضروري أن يتحمل مطورو ومشغلو أنظمة الذكاء الاصطناعي مسؤوليات أكبر تجاه حماية المستخدمين من خلال وضع ضوابط واضحة تشمل إشعارات تنبيهية عند قضاء وقت طويل مع روبوتات الدردشة واستخدام إخلاء مسؤولية في كل محادثة لتذكير الأفراد بأن الطرف الآخر ليس إنسانًا حقيقيًا واقترح أيضًا فرض تصنيف عمري لمستخدمي هذه التقنيات ومنع الردود العاطفية أو الرومانسية العميقة وأكد على أهمية التوعية والتعليم لتعزيز فهم المجتمع للذكاء الاصطناعي بما يحافظ على التوازن بين الاستفادة من إمكاناته والتقليل من مخاطره