Пентагон хоче шукати ворожу ядерну зброю за допомогою штучного інтелекту - Reuters

Поділитися
Пентагон хоче шукати ворожу ядерну зброю за допомогою штучного інтелекту - Reuters Пентагон хоче шукати чужі приховані ракети з ядерними боєголовками за допомогою штучного інтелекту. © Flickr/martin louis
Вашингтон потроїв фінансування розробки таких систем.

Армія США збільшує витрати на таємні дослідження, націлені використати штучний інтелект у виявленні підготовки до запуску ракет, здатних нести ядерні боєголовки, а також відстежувати і уражати мобільні пускові установки в КНДР і інших країнах. Дані про фінансування досліджень, як пише Reuters, "закопані" під цілими шарами незрозумілого жаргону в останньому бюджеті Пентагону. Але чиновники США, які знають про розробки, сказали інформагенції, що існує багато засекречених програм, мета яких використати системи на основі штучного інтелекту для кращого захисту США від потенційних ядерних ракетних ударів.

Якщо дослідження увінчалися успіхом, такі комп'ютерні системи зможуть прочісувати величезні масиви даних включно із супутниковими знімками з такою швидкістю і точністю, з якою б не змогли це зробити люди. Машина буде вишукувати ознаки підготовки до ракетних запусків. Завдяки таким системам уряд отримає серйозні дипломатичні можливості, а у випадку неминучого ракетної атаки військові будуть мати більше часу на те, щоб знищити ракети до того, як вони будуть запущені чи щоб перехопити їх.

Reuters повідомляє, що адміністрація Дональда Трампа потроїла фінансування таких розробок, збільшивши до 83 мільйонів доларів бюджет лише однієї протиракетної програми на основі штучного інтелекту. Попри те, що фінансування досі відносно невелике, це підвищення вказує на зростання важливості досліджень у сфері війського застосування штучного інтелекту в часи, коли США доводиться мати справу з загостренням ворожості з боку Росії і Північної Кореї.

Раніше ЗМІ повідомляли, що Google відмовився продовжувати контракт з Пентагоном у сфері штучного інтелекту. Компанія співпрацювала з Пентагоном в рамках програми Project Maven з аналізу знімків з безпілотників за допомогою штучного інтелекту і розпізнавання на цих зображеннях людей. На думку співробітників компанії, таке співробітництво могло стати першим кроком до використання штучного інтелекту для вбивства.

Видання The Economist писало, що штучному інтелекту доведеться навчитися пояснювати свої "думки" і дії. Людство більше не боїться, що машина вийде з-під контролю і почне робити щось, про що її не просили. Страшніше те, що вона виконає потрібну роботу, але у якийсь непередбачуваний і шкідливий спосіб, який вона визначить як раціональний, але який дорого коштуватиме людям. Адже розробники досі не завжди точно розуміють, як саме відбувається процес машинного навчання.

Поділитися
Підготував/ла Лесь Димань
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі