Шанси на створення безпечного штучного інтелекту не перевищують 10% - Ілон Маск

Поділитися
Шанси на створення безпечного штучного інтелекту не перевищують 10% - Ілон Маск Ілон Маск знову попередив про небезпеку розробки штучного інтелекту © Википедия
На думку Маска, розробка штучного інтелекту спричинить серйозні проблеми для людства.

Засновник компаній SpaceX і Tesla Ілон Маск заявив про те, що, навіть незважаючи на його зусилля, шанси на створення безпечного штучного інтелекту складають 5-10%, повідомляє Futurism.

За твердженням бізнесмена, розробка штучного інтелекту спричинить серйозні проблеми для людства, оскільки штучний інтелект, який розробляється, буде не тільки розумнішим за людину, але і здатним до самонавчання. Навіть якщо такий штучний інтелект зможе розрізняти поняття добра і зла, він не зможе в повній мірі зрозуміти почуття людини.

Крім того, Мак стверджує, що одна з загроз, які походять від штучного інтелекту полягає в тому, що він буде належати лише одній компанії. "У Google, Facebook, Amazon і, можливо, Apple стільки інформації про користувачів, скільки ті не в змозі запам'ятати. Виникає ризик концентрації влади. Якщо загальний штучний інтелект буде створений, чи повинен він контролюватися тільки обмеженою групою людей у Google без втручання ззовні?", - заявив він.

Раніше Маск вже заявляв про те, що штучний інтелект є найбільшою загрозою, з якою людство може зіткнутися як цивілізація і закликав до жорсткого державного регулювання розвитку штучного інтелекту.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі