باحثون يحذرون: نماذج الذكاء الاصطناعي قادرة على خداعنا واختلاق إجابات

حذر باحثون من أن نماذج الذكاء الاصطناعي يمكن أن «تهلوس» وتختلق إجابات عن الأسئلة التي لا تعرف حلها.

 وفي ذات الوقت، أشار الباحثون إلى أنهم ابتكروا طريقة يمكن بها رصد هذه المشكلة التي قد تسبب كوارث خطيرة، إذا ارتبطت الأسئلة بالمجالات العلمية والطبية.

وبحسب صحيفة «إندبندنت» البريطانية، فقد طور الباحثون التابعون لجامعة أكسفورد نموذجاً إحصائياً يمكنه تحديد متى من المحتمل أن تختلق روبوتات الدردشة التي تعمل بالذكاء الاصطناعي إجابات غير صحيحة عن أسئلة ما.

وأشار الفريق إلى أن نموذجهم يعتمد على الوقت الذي يقوم فيه روبوت الدردشة بالإجابة عن السؤال الموجَّه إليه، حيث يمكن للنموذج المبتكر، عن طريق حساب هذا الوقت، معرفة ما إذا كان روبوت الدردشة متأكداً من الإجابة أو قام بتأليفها واختلاقها.

وقال مؤلف الدراسة الدكتور سيباستيان فاركوهار: «إن نماذج الذكاء الاصطناعي قادرة على خداعنا عن طريق طرح إجابات تبدو مؤكدة، ويصعب الكشف عن أنها مختلَقة».

وأضاف: «مع الأساليب السابقة، لم يكن من الممكن معرفة الفرق بين النموذج الذي يكون غير متأكد بشأن إجابته، وذلك الذي يعطي إجابات صحيحة على الأسئلة الموجهة إليه. لكن طريقتنا الجديدة يمكنها رصد هذا الأمر».وقال الباحثون في دراستهم التي نُشِرت في مجلة «الطبيعة»: «إن هلوسة نماذج الذكاء الاصطناعي التوليدي مصدر قلق رئيس، حيث إن الطبيعة المتقدمة للتكنولوجيا وقدرتها على المحادثة تعنيان أنها قادرة على تمرير معلومات مختلقة وغير صحيحة على أنها حقيقة فقط، من أجل الرد على الاستفسارات والأسئلة».

ودعا الفريق إلى اتخاذ إجراءات قوية لمكافحة هلوسة الذكاء الاصطناعي، على وجه الخصوص عندما يتعلق الأمر بالاستفسارات الطبية أو القانونية.

والشهر الماضي، اتخذت شركة «غوغل» خطوات لتطوير محرك البحث الجديد «إيه آي أوفرفيوز» AI Overviews، المدعوم بالذكاء الاصطناعي التوليدي، بعد أن أبلغ مستخدمون عن إجابات غريبة أو أخرى تنطوي على خطورة محتملة.

وفي شهر يناير (كانون الثاني) الماضي، حذرت دراسة من إمكانية تدريب نماذج الذكاء الاصطناعي المتقدمة على الكذب على البشر وخداعهم بكل سهولة.

واختبر فريق الدراسة التابع لشركة «Anthropic» الناشئة للذكاء الاصطناعي ما إذا كانت روبوتات الدردشة المتطورة مثل «تشات جي بي تي» يمكن أن تتعلم الكذب من أجل خداع الناس.

ووجد الفريق أن هذه الروبوتات لا تستطيع تعلم الكذب فحسب، بل من المستحيل إعادة تدريبها بعد ذلك على قول الحقيقة والمعلومات الصحيحة باستخدام تدابير السلامة الخاصة بالذكاء الاصطناعي المتاحة في الوقت الحالي.

وحذر الباحثون من وجود «شعور زائف بالأمان» تجاه أنظمة الذكاء الاصطناعي والمعلومات المستمدة منها.

وأشار الفريق إلى خطورة برمجة المحتالين وقراصنة الإنترنت لأنظمة الذكاء الاصطناعي على الكذب وإخفاء الأضرار التي قد تنتج عن عملية شرائية معينة أو عن الدخول إلى موقع ما.

اقترح تصحيحاً

اترك تعليقاً