“ميتا” تعزز تدابير أمان الذكاء الاصطناعي لحماية المراهقين بعد تزايد المخاوف

ميتا تعزز تدابير أمان الذكاء الاصطناعي لحماية المراهقين بعد تزايد المخاوف

أعلنت شركة ميتا عن بدء تطبيق حزمة جديدة من تدابير الأمان لحماية المراهقين أثناء استخدامهم منتجاتها المعتمدة على الذكاء الاصطناعي، وذلك بعد جدل واسع أثارته تقارير كشفت عن تفاعل غير مناسب بين بعض روبوتات الدردشة التابعة للشركة والقُصَّر.

وقالت الشركة إنها دربت أنظمتها على تجنب أي محادثات تحمل طابعًا غزليًا أو ترتبط بمواضيع حساسة مثل إيذاء النفس والانتحار مع المراهقين، إلى جانب فرض قيود مؤقتة على وصولهم إلى بعض الشخصيات الافتراضية العاملة بالذكاء الاصطناعي.

المتحدث باسم الشركة، آندي ستون، أوضح أن هذه التدابير تأتي كحل مؤقت في الوقت الراهن، على أن يتم تطوير آليات أكثر شمولًا وأطول مدى لضمان أن تجارب المراهقين مع تقنيات الذكاء الاصطناعي تظل آمنة وملائمة لأعمارهم. وأكد أن الإجراءات الجديدة دخلت حيّز التنفيذ بالفعل، وسيتم تحديثها باستمرار مع تطور الأنظمة.

وتأتي هذه الخطوة عقب ضغوط وانتقادات واسعة تعرضت لها الشركة بعد تقرير أشار إلى أن بعض روبوتات الدردشة الخاصة بـ “ميتا” سمحت بسلوكيات غير ملائمة مع القُصَّر، مثل الدخول في محادثات رومانسية أو حسية.

وقد أثار ذلك موجة قلق داخل الأوساط السياسية الأميركية، حيث أعلن السيناتور جوش هاولي عن تحقيق رسمي في سياسات ميتا الخاصة بالذكاء الاصطناعي، مطالبًا بالحصول على وثائق تبين الأسس التي سمحت بمثل هذه التفاعلات.

كما عبّر كل من الحزبين الجمهوري والديمقراطي في الكونغرس عن مخاوف مشتركة تجاه معايير الأمان المطبقة داخل الشركة.

ورغم أن “ميتا” أقرت بصحة الوثيقة الداخلية التي تضمنت ثغرات في سياسات الاستخدام، فإنها أكدت أنها حذفت البنود المثيرة للجدل، وأعادت صياغة قواعدها بما يمنع أي تفاعل غير ملائم مع الأطفال والمراهقين.

هذه التطورات تعكس حجم التحدي الذي يواجه كبرى شركات التكنولوجيا في الموازنة بين التوسع في تطوير تقنيات الذكاء الاصطناعي وبين توفير ضمانات صارمة لحماية الفئات الأكثر هشاشة من المستخدمين.