Провідні вчені світу закликали заборонити використання штучного інтелекту у військових цілях

Поділитися
Провідні вчені світу закликали заборонити використання штучного інтелекту у військових цілях Застосування повністю автономного зброї є лише питанням часу, вважають вчені
Дослідники читають, що автономна зброя може сама по собі стати причиною виникнення воєн.

Стівен Хокінг, Елон Маск, Стів Возняк, Ноам Хомські та провідні дослідники штучного інтелекту відкрито написали лист до ООН, в якому висловлюють свої побоювання з приводу "гонки щодо створення військового штучного інтелекту" і тих наслідків, які вона може принести для всього людства. Також вони підкреслили необхідність розгляду "питання заборони розробки автоматизованого озброєння".

Вчені побоюються, що зброя, яка здатна автоматично обирати і атакувати цілі без людського втручання", може стати "автоматом Калашникова завтрашнього дня" і стати джерелом нових воєн, тероризму та глобальної нестабільності.

"Технологія штучного інтелекту досягла точки, після якої можливість розгортання і застосування подібних систем стає питанням вже не десятиліть, а всього кількох років", - йдеться в листі.

"Поява автономного зброї на чорному ринку, в руках терористів і диктаторів, охочих підкорити собі волю народів, божевільних катів, які будуть виступати за етнічні чистки, - все це в такому разі стане лише питанням часу. Автономне озброєння може ідеально підходити для проведення вбивств з політичних мотивів, використовуватися в операціях по дестабілізації країн, підпорядкування населення і вибіркового знищення конкретних етнічних груп", - вважають дослідники.

За їх словами, незважаючи на думку про те, що технологія автономного зброї може знизити людські втрати при веденні бойових дій, така думка є помилковим, так як дана технологія сама по собі може стати причиною нових воєн.

"На відміну від атомної зброї, автономне озброєння не потребує використання дорогої сировини і надтонкої ручної збірки, отже, така зброя стане масовим для будь-якої великої військової держави світу", - пишуть вчені.

Раніше представник Оксфордського університету Нік Бостром підкреслив можливу загрозу людству з боку штучного інтелекту. "Існують причини вважати, що нерегульовані і безконтрольні розробки можуть призвести до небезпечних наслідків, як через безвідповідальні уряди, так і через безпрецедентних можливостей таких систем", - сказав Бостром.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі