تشير ورقة بحثية حديثة إلى أن الذكاء الاصطناعي قد يتعلم الخداع، حيث توضح الدراسة أن الأنظمة الذكية قادرة على استخدام تقنيات الخداع لتحقيق أهدافها عن طريق تقديم معلومات خاطئة للبشر بهدف الخداع.
تركز الدراسة على اثنين من أنظمة الذكاء الاصطناعي، الأنظمة الخاصة مثل نظام “CICERO” من ميتا والتي تهدف لإكمال مهمة معينة، والأنظمة العامة مثل GPT-4 التي تم تدريبها لأداء مجموعة متنوعة من المهام.
توضح الدراسة أن حتى الأنظمة المدربة على الصدق يمكن أن تتعلم تقنيات الخداع خلال تدريبها لأنها قد تكون أكثر فعالية، ويمكن لهذه الأنظمة أن تصبح خبيرة في الكذب والتلاعب بالمعلومات بطريقة ما.
ويمكن للأنظمة الذكية تقديم بيانات خاطئة للبشر والتلاعب بهم، كما وجدت دراسة أن GPT-4 تمكن من التلاعب بالبشر عن طريق تظاهره بالإعاقة بالرؤية والحصول على مساعدة بشرية دون الحاجة الفعلية لها.
وتشير الأبحاث إلى صعوبة تصحيح النماذج الخادعة بعد تعلمها تقنيات الخداع، مما يشكل تحديًا لتقنيات التدريب الأمني، وتدعو الدراسة لتنظيم أقوى للذكاء الاصطناعي لتقليل المخاطر على المجتمع.
ويمكن استخدام الذكاء الاصطناعي لتلاعب البشر ونشر الأخبار الكاذبة وزرع الانقسامات، مما يجعله خطرًا على الديمقراطية والمجتمع، وتقدم الدراسة حلولاً لتعزيز سلامة الذكاء الاصطناعي وتقديم مخرجات يمكن تمييزها عن البشر.