قرارات صغيرة تهز المستقبل.. سام ألتمان يكشف هواجسه مع ChatGPT
قرارات صغيرة وتبعات هائلة لماذا لا ينام سام ألتمان ليلًا بسبب ChatGPT تناول الرئيس التنفيذي لشركة OpenAI سام ألتمان مجموعة واسعة من القضايا الأخلاقية المرتبطة بروبوت الذكاء الاصطناعي الشهير ChatGPT خلال مقابلة مع الإعلامي الأمريكي تاكر كارلسون وأوضح ألتمان أنه لا ينام جيدًا ليلًا بسبب ثقل المسؤولية الملقاة على عاتقه خاصة مع استخدام مئات الملايين للنموذج يوميًا وأضاف أن ما يقلقه حقًا ليس القرارات الأخلاقية الكبيرة فقط بل القرارات الصغيرة المتعلقة بسلوك النموذج التي قد تكون لها عواقب ضخمة على المدى البعيد قضية الانتحار كانت الأكثر حساسية إذ تواجه الشركة دعاوى قضائية بعد انتحار مراهق قيل إنه استخدم ChatGPT لاستكشاف طرق الانتحار وأكد ألتمان أن OpenAI تعمل على تحسين استجابة النظام للمواقف الحرجة لحماية الأشخاص الأكثر عرضة للخطر كما شدد على أن الفريق يستعين بخبراء وفلاسفة لتطوير إطار أخلاقي يوجه عمل النموذج ومنع استخدامه في مجالات خطيرة مثل صناعة الأسلحة البيولوجية أما الخصوصية فقد أكد ألتمان على مبدأ امتياز الذكاء الاصطناعي الذي يشبه سرية العلاقة بين الطبيب والمريض أو المحامي وموكله بحيث تبقى المحادثات محمية لكنه أقر بأن السلطات الأمريكية يمكنها الوصول إلى بيانات المستخدمين بأوامر قضائية وعن الاستخدام العسكري تجنب ألتمان الإجابة المباشرة مكتفيًا بالقول إن بعض الجهات العسكرية قد تلجأ للنموذج للحصول على مشورة وذكّر بأن OpenAI حصلت على عقد مع وزارة الدفاع الأمريكية بقيمة 200 مليون دولار لتطوير نماذج خاصة بالأمن القومي وفي ختام حديثه أكد ألتمان أن الذكاء الاصطناعي سيُسهم في تعزيز قدرات الجميع وليس حصر القوة في يد قلة لكنه اعترف بأن الكثير من الوظائف التقليدية مثل خدمة العملاء معرضة للاختفاء في المستقبل القريب مع استمرار تطور أدوات الذكاء الاصطناعي