حالة الطقس      أسواق عالمية

حذر خبراء في علم النفس في ألمانيا من استخدام الذكاء الاصطناعي في كشف الكذب، حيث استشهدت العالمة في علم النفس كريستينا زوخوتسكي والعالم في علم النفس ماتياس جامر بمثال على استخدام الذكاء الاصطناعي في استجواب الأشخاص الراغبين في دخول الاتحاد الأوروبي أو المشتبه فيهم في قضايا جنائية. وأشار الخبراء إلى أن الذكاء الاصطناعي لا يمكن فهم أحكامه من الخارج ولا يمكن التحقق من صحة النتائج التي يقدمها، مما يجعلهم يحذرون من خطورة استخدامه في هذا السياق.

وأكد الخبراء أنه لا يمكن الاعتماد على الذكاء الاصطناعي في تحديد ما إذا كان الشخص يقول الحقيقة أم الكذب، حيث لا توجد مؤشرات سلوكية قوية يمكن الاعتماد عليها في هذا الصدد. وأشار الثنائي إلى أنه من الخطورة الحصول على نتائج غير صحيحة باستخدام تقنيات الذكاء الاصطناعي في كشف الكذب، مما يجعلهم يحذرون الجهات المعنية من الاعتماد عليها بشكل كامل دون التحقق من صحة النتائج.

وأكدت الدراسة أن كائنات مثل “أنف بينوكيو” غير موجودة في الواقع خارج الكتب، وأنه لا يمكن تحديد صدقية شخص ما بناء على مواقفه السلوكية بشكل قاطع. وبالتالي، فإن استخدام تقنيات الذكاء الاصطناعي في كشف الكذب يعتبر أمراً خطيراً وغير مضمون، مما يدعو للحذر من الاعتماد الكامل عليها في هذا السياق.

وختمت الدراسة بتأكيد أن الذكاء الاصطناعي ليس آلة مثالية للتحقق من صحة الأقوال، وأنه يجب إجراء تحقيقات إضافية وفحوصات أخرى لضمان دقة النتائج. وحذر الخبراء الجهات المعنية من الاعتماد الكبير على تقنيات الذكاء الاصطناعي في مجال كشف الكذب بدون التحقق من صحة النتائج بشكل فعال، مشددين على أهمية توخي الحذر والحيطة في هذا الصدد.

بناءً على ذلك، يوجد خطر كبير في الاعتماد على تقنيات الذكاء الاصطناعي في كشف الكذب في حالات التحقيق الجنائي أو الأمني، حيث يمكن أن تكون النتائج غير دقيقة وتؤثر على مسار التحقيق بشكل خطير. ولذلك، ينبغي للجهات المعنية أن تتخذ إجراءات محددة ودقيقة لضمان دقة النتائج وتوجيه الاستخدام السليم لتقنيات الذكاء الاصطناعي في هذا السياق.

شاركها.
© 2025 جلوب تايم لاين. جميع الحقوق محفوظة.
Exit mobile version