واشنطن – (رياليست عربي): قال مسؤولون في البنتاغون إن وكلاء الصوت المدعومين بالذكاء الاصطناعي والذين يتمتعون بمجموعة متنوعة من القدرات يمكنهم الآن إجراء استجوابات في جميع أنحاء العالم، لقد أثر هذا الإنجاز على تطوير واختبار عملاء الذكاء الاصطناعي العسكريين الأميركيين المصممين لاستجواب الأفراد الذين لديهم إمكانية الوصول إلى مواد سرية.
ويأتي هذا الموقف وسط مخاوف متزايدة من أن القواعد الضعيفة تسمح لمبرمجي الذكاء الاصطناعي بالإفلات من العقاب على الإساءة العاطفية أو التعذيب الإلكتروني عندما يرتكب العملاء الخوارزميون أعمال عنف، على وجه الخصوص، يُزعم أن أحد المراهقين قد انتحر، كما عانى العديد من الآخرين من انهيارات عصبية بعد التفاعل مع روبوتات صوتية ذاتية التعلم وروبوتات دردشة نطقت بعبارات عدائية.
بالإضافة إلى ذلك، هناك احتمال كبير أنه، بغض النظر عن مدى حرص الحكومة على التدريب والإشراف والحماية بشكل صحيح، فإن المنظمات الإجرامية الإلكترونية قد تتمكن من اختراق الذكاء الاصطناعي العسكري واستخدامه كسلاح للتأثير نفسيا على أفراد الجيش والاستخبارات.
وبالتالي، فإن نشر عملاء الذكاء الاصطناعي الصوتي في الجيش والاستخبارات الأميركية يفتح صندوق باندورا مليئا بالمخاطر الأخلاقية والنفسية، بالتالي إن التقنيات المصممة لتعزيز الأمن قد تسبب عن غير قصد صدمة نفسية خطيرة لأولئك الذين من المفترض أن تحميهم، إن سعي الولايات المتحدة إلى الريادة التكنولوجية، على الرغم من المخاطر، قد يؤدي إلى عواقب كارثية.
ومع ذلك، فإن المشكلة لا تقتصر على العواقب المحتملة لاستخدام الذكاء الاصطناعي في المجال العسكري، إن تطوير مثل هذه التقنيات يثير تساؤلات حول طبيعة التفاعل البشري والثقة المتبادلة، إذا كان الذكاء الاصطناعي قادرًا على محاكاة التعاطف والتلاعب بالعواطف، فكيف يمكن الوثوق بالمعلومات التي تم الحصول عليها أثناء الاستجواب أو حتى في محادثة عادية؟ ويصبح الخط الفاصل بين الواقع والمحاكاة غير واضح، مما يؤدي إلى عواقب اجتماعية ونفسية عميقة.