Збройні сили США активно застосовують інструменти штучного інтелекту для обробки великих масивів даних під час військових операцій проти Ірану. Як пише Bloomberg, про це повідомили у Центральному командуванні США (CENTCOM), підкресливши, що нові технології дедалі більше впливають на сучасні бойові дії.
За словами речника командування капітана Тімоті Гокінса, штучний інтелект відіграє важливу роль у первинному відборі та аналізі великої кількості розвідувальних даних. Це дозволяє людським аналітикам зосередитися на складнішій перевірці інформації та прийнятті рішень.
"CENTCOM використовує різні інструменти ШІ, але вони лише допомагають експертам у суворому процесі, який відповідає політиці США, військовій доктрині та законодавству", – сказав Гокінс. Він додав, що остаточні рішення щодо ураження цілей ухвалюють люди, а не алгоритми.
За інформацією джерел, обізнаних з операціями, однією з ключових систем стала платформа управління місіями Maven Smart System, розроблена компанією Palantir Technologies. Вона об'єднує дані з понад 150 різних джерел та допомагає військовим швидше аналізувати інформацію.
У системі також використовуються великі мовні моделі, зокрема Claude від компанії Anthropic. За словами співрозмовників журналістів, цей інструмент добре зарекомендував себе і став важливим елементом аналізу даних під час операцій проти Ірану.
Водночас навколо співпраці Пентагону з Anthropic триває суперечка. Після того як сторони не змогли домовитися про умови використання технологій компанії, міністр оборони США Піт Гегсет назвав її ризиком для ланцюга постачання і дав військовим підрядникам шість місяців, щоб припинити співпрацю. Президент Дональд Трамп також доручив федеральним агентствам припинити роботу з компанією, назвавши її "неконтрольованою радикально-лівою".
На тлі цього конфлікту компанія OpenAI уклала контракт із Міністерством оборони США. Однак після відтоку користувачів ChatGPT та хвилі критики вона назвала це рішення "поспішним" і оголосила про певні зміни.
Використання ШІ у військових діях викликає дискусії. Деякі правозахисні організації, зокрема коаліція Stop Killer Robots, застерігають, що системи підтримки рішень на основі ШІ можуть розмити межу між рекомендаціями алгоритмів і фактичним застосуванням сили.

