تطور خطير في عالم الذكاء الاصطناعي: "OpenAI" تُطلق وكيلًا ذكيًا بمستوى خطورة غير مسبوق

في خطوة جديدة أثارت الكثير من الجدل في الأوساط التقنية والعلمية، أعلنت شركة OpenAI عن إطلاق ميزة متقدمة داخل نظام شات جي بي تي تُعرف باسم "الوكيل الذكي" أو ChatGPT Agent، وهي أداة مدعومة بالذكاء الاصطناعي مصممة للقيام بمهام رقمية معقدة نيابة عن المستخدم، مثل جمع البيانات، إعداد جداول البيانات، حجز الرحلات، وإنشاء العروض التقديمية بشكل تلقائي، مما يفتح آفاقًا هائلة أمام الأتمتة الشخصية والمهنية. لكن ما أثار الانتباه – وربما القلق – هو أن هذه الأداة الجديدة صُنّفت من قبل OpenAI كأول منتج لديها يحمل درجة عالية من "المخاطر البيولوجية"، وهو توصيف غير مسبوق يشير إلى مدى حساسية وعمق ما يمكن لهذا النوع من الذكاء الاصطناعي الوصول إليه. السبب الرئيسي وراء هذا التصنيف هو القلق من أن يتم استغلال هذا الوكيل الذكي من قبل أفراد أو جهات غير متخصصة للبحث عن طرق تطوير أو تصنيع أسلحة بيولوجية أو كيميائية، وهو أمر كان في الماضي محصورًا في نطاق ضيق يتطلب معرفة متقدمة ومصادر علمية معقدة. اليوم ومع تطور نماذج الذكاء الاصطناعي، لم تعد المعرفة مقصورة على العلماء والخبراء، بل أصبحت في متناول أي مستخدم يمتلك أداة قوية مثل هذه. التقرير الصادر عن OpenAI أشار إلى أن هذه الخطوة جاءت بناءً على تقييمات داخلية وخارجية، من قبل خبراء في السلامة البيولوجية، والذين حذروا من أن الذكاء الاصطناعي قد يساهم بالفعل في تقليل الحواجز المعرفية التي تحمي البشرية من أخطار هذا النوع من الأسلحة. ورغم أنه لا يوجد دليل قاطع حتى الآن على أن الوكيل يمكنه فعليًا توجيه شخص ما إلى كيفية تصنيع سلاح بيولوجي، إلا أن OpenAI قررت التعامل مع المسألة بأقصى درجات الحذر، فأضافت أنظمة أمان قوية تشمل رفض تلقائي للطلبات التي قد تتعلق بموضوعات خطيرة، وتحويلها للمراجعة البشرية، إلى جانب مراقبة مستمرة للنشاطات داخل النظام، وقواعد صارمة لحظر المحتوى الخطير. تأتي هذه التطورات في ظل منافسة شرسة بين شركات التكنولوجيا العملاقة مثل Google وAnthropic لتطوير وكلاء ذكاء اصطناعي قادرين على اتخاذ قرارات وتنفيذ مهام معقدة دون تدخل بشري، وهو ما يُعد جزءًا من التوجه العالمي الجديد نحو أتمتة المهام الإدارية والتقنية بشكل كامل. لكن ومع هذا التقدم تأتي أيضًا مسؤوليات ضخمة، أبرزها الحفاظ على الاستخدام الأخلاقي والمسؤول لتلك الأدوات.