Навколо теми штучного інтелекту (ІІ) знову піднялася хвиля дискусій. Їх мета – перешкодити людству привести себе до апокаліпсису в стилі «Термінатора». Однак все це стримує наукові дослідження і розробку нових технологій, що потенційно завдає шкоди суспільству. Потенційні вигоди від використання штучного інтелекту, такі як розвиток машин і більш ефективне виробництво, зможуть революціонізувати суспільство, якщо тільки ми зможемо побороти свій страх. Про це говорить директор Microsoft Research Кріс Бішоп.
Чи існують потенційні ризики?
За його словами, суспільство занадто багато уваги звертає на негативні аспекти ІІ, наприклад ті, які були зображені у фільмі «Термінатор». Він каже, що не згоден з гучними заявами людей, які виступають проти штучного інтелекту, хоча визнає, що потенційні ризики все ж існують. Однак, за словами Бішопа, справа не у винищуванні людства, хоча саме цієї версії розвитку подій найчастіше бояться. Замість цього штучний інтелект може розвивати потенційно шкідливі пристрасті.
Думка відомих громадських діячів
Стівен Хокінг і Елон Маск публічно визнають ризики, пов’язані з розвитком штучного інтелекту. Розвиток повного ІІ може означати кінець для людської раси – таку думку висловив Хокінг в минулому році. У той же час Маск заявляє, що всі ми повинні бути дуже обережними з штучним інтелектом. За його словами, саме в ІІ полягає наша найбільша екзистенціальна загроза. Не так давно Білл Гейтс також підтримав цю точку зору.
Однак Бішоп каже, що розмови про штучний інтелект не допоможуть, якщо важливі суспільні діячі стануть увічнювати ці ідеї таким чином. Раніше він говорив про те, що Хокінг дивиться далеко в майбутнє. Сам Кріс Бішоп стверджує, що дуже складно робити прогнози того, як будуть розвиватися технології в наступні 10 років. Що вже говорити про 1000-річний термін! Очевидно, що людство зіткнеться з багатьма проблемами. Однак ті ж технології можуть мати потенціал для вирішення цих проблем.
Роботи-вбивці
Справедливості заради треба сказати, що боязнь розвитку ІІ має деякі законні підстави. Минулого місяця побачив світло звіт “Хьюман Райтс Вотч”, в якому ООН закликають заборонити використовувати роботів-вбивць на війні, перш ніж вони стануть нормою. У доповіді стверджується, що виробництво військових літальних безпілотних апаратів, які здатні не тільки виявити, але і вбити людину, може бути запущено всього через кілька років. В ООН повинні заборонити їх до того, як почнеться їх випуск.