ألعاب الذكاء الاصطناعي للأطفال.. ابتكار يثير القلق ويكشف مخاطر تتطلب رقابة أكبر

2025-11-16 08:45 PM

تشير دراسة حديثة لمنظمة معنية بحقوق المستهلكين إلى أن ألعاب الأطفال المدعومة بالذكاء الاصطناعي قد تشكل مخاطر غير متوقعة على سلامة الصغار حيث فحصت مجموعة US PIRG أربع ألعاب موجهة للأطفال الصغار تعتمد على روبوتات الدردشة التوليدية ووجدت أنها قد تقدم محتوى غير مناسب يتراوح بين موضوعات جنسية صريحة وتعليمات تتعلق بأشياء خطيرة كما أظهرت الدراسة أن بعض هذه الألعاب تستخدم تسجيل الصوت والتعرف على الوجه دون موافقة واضحة من الوالدين أو سياسة بيانات شفافة مما يزيد من احتمالات انتهاك الخصوصية وتشير نتائج البحث إلى أن المخاطر التقليدية مثل الألعاب السامة والبطاريات والمغناطيسات لم تختف لكنها أصبحت ممتزجة بمخاطر جديدة يقودها الذكاء الاصطناعي ومع تطور الألعاب لتصبح قادرة على الاستماع والتحدث والتفاعل اللحظي مع الطفل باتت هذه القدرات المتقدمة تفتح الباب أمام مخاطر نفسية وسلوكية عندما تقدم اللعبة نصائح خاطئة أو تجمع بيانات الطفل دون حماية فعالة وتؤكد الدراسة أن العديد من هذه الألعاب تعتمد على نماذج لغوية كبيرة مشابهة لتلك المستخدمة للبالغين والتي تعاني من مشكلات مثل التحيز وعدم الدقة والسلوك غير المتوقع وعلى الرغم من إضافة الشركات لمرشحات مخصصة للأطفال توضح النتائج أن هذه الحواجز يمكن أن تفشل في مواجهة السيناريوهات الواقعية واليوم يواجه الآباء والجهات التنظيمية مستوى جديدًا من المخاطر إذ لم تعد التحديات مقتصرة على الاختناق أو المواد السامة بل امتدت إلى ألعاب قد تشجع على استخدام أعواد الثقاب أو تدفع الطفل لمحادثات غير مناسبة أو تمنعه من إنهاء اللعب ما يجعل ألعاب الذكاء الاصطناعي للأطفال أكثر تعقيدًا وخطورة من أي وقت مضى ولتجنب هذه المخاطر يجب على الآباء التأكد من أن الألعاب الذكية تتبع سياسات بيانات واضحة تسمح بحذف التسجيلات وتعطيل الصوت والوجه إضافة إلى التحقق من فلاتر المحتوى وقدرة اللعبة على حظر الموضوعات غير المناسبة كما يُفضل اختيار الألعاب التي توفر إمكانية الإيقاف المؤقت أو تحديد وقت اللعب أو تعطيل المحادثة بالكامل لضمان بيئة أكثر أمانًا للأطفال