Конфлікт між Пентагоном та Anthropic виявив нову проблему застосування штучного інтелекту у військових діях, зазначає експерт.
Військові США зацікавлені в застосуванні штучного інтелекту для прогнозування міжнародних конфліктів.
У лютому між компанією Anthropic, яка розробляє мовну модель Claude, та Пентагоном виникла суперечка. "Міністерство оборони" вимагало, щоб Anthropic надала американським військовим можливість використовувати Claude в військових цілях, зокрема для моделювання потенційних конфліктів та сценаріїв розвитку подій. Проте компанія відмовилася зняти обмеження на масове спостереження за громадянами і виступила проти застосування Claude для автономних систем озброєння. Ця ситуація відображає типовий конфлікт між державою, що прагне отримати доступ до можливостей штучного інтелекту, і компанією, яка бажає зберегти контроль над своїм продуктом. Важливо зазначити, що в даному випадку йдеться про контроль над інструментом, здатним моделювати сценарії ядерної війни з докладним аналізом, як вказує Олексій Костенко, завідувач Наукової лабораторії імерсивних технологій і права Інституту інформації, безпеки і права Національної академії правових наук, у своїй статті "Пентагон і Claude: що за лаштунками конфлікту?".
"Перевага ШІ -- не лише в "логіці ескалації", а в здатності прораховувати наслідки з такою деталізацією, яку людина фізично не потягне, ухвалюючи рішення в реальному часі", -- пояснює автор статті.
За його словами, для військового планування важливим є поєднання комп'ютерного моделювання конфліктів із мовними моделями штучного інтелекту. Експерт наголошує, що це дає змогу моделювати наслідки конфлікту: втрати військові та цивільні, масштаби руйнувань, ризики техногенних аварій, соціальні та політичні наслідки, втрату потенціалу противника та інше.
"Те, що колись являло собою сукупність незалежних експертних аналізів і повільних штабних підрахунків, завдяки штучному інтелекту перетворюється на масштабне сценарне моделювання. Це забезпечує тисячі альтернатив, чутливість до незначних змін та статистичне виділення найбільш ризикованих шляхів," – зазначає Костенко.
Експерт зазначає, що сьогодні штучний інтелект здатний діяти на стратегічному рівні, проте, коли виникає терміновість, мовні моделі можуть вдаватися до більш рішучих заходів.
Костенко називає конфлікт між Anthropic та Пентагоном боротьбою за характер майбутньої війни. Зокрема, за те, хто буде визначати межі допустимого у сценаріях ядерної ескалації -- алгоритм чи людина.
Таким чином, питання майбутнього постає не так складно, як може здаватися на перший погляд: чи в змозі людство відповідально управляти штучним інтелектом, що було створено ним самим? В цьому контексті конфлікт між Пентагоном та компанією Anthropic слугує лише початковим сигналом цієї нової реальності, -- зазначає автор.





