Эксперт назвал три главных угрозы существованию человечества

Опубликовано
Они могут нас уничтожить к 2100 году

Искусственный интеллект, синтетическая биология и так называемые неизвестные неизвестные могут уничтожить человечество до 2100 года, считает сооснователь Skype Яан Таллинн.

При этом он не рассматривает как самую серьезную глобальную угрозу изменение климата, которое ООН признала «определяющей проблемой нашего времени», отметив, что «важные переломные моменты, ведущие к необратимым изменениям в основных экосистемах и планетарной климатической системе, возможно, уже были достигнуты или пройдены».

«Изменение климата не станет риском для существования, если не будет потери контроля», — сказал эстонский программист в интервью CNBC.

Он пояснил, что синтетическая биология занимается разработкой и созданием новых биологических частей, устройств и систем, в то время как «неизвестные неизвестные» — это «вещи, которые мы, возможно, не можем представить прямо сейчас».

Из трех угроз, которые больше всего беспокоят Таллинна, он сосредоточен на искусственном интеллекте и тратит миллионы долларов, пытаясь обеспечить безопасное развитие технологии. Это включает в себя инвестиции на ранних стадиях в лаборатории искусственного интеллекта, такие как DeepMind (отчасти для того, чтобы он мог следить за тем, что они делают) и финансирование исследований безопасности ИИ в таких университетах, как Оксфорд и Кембридж.

Ссылаясь на книгу оксфордского профессора Тоби Орда, Таллинн сказал, что вероятность гибели людей в этом веке составляет 1 к 6. Согласно книге, одной из самых больших потенциальных угроз в ближайшем будущем является именно ИИ, а вероятность того, что изменение климата приведет к вымиранию человечества, составляет менее 1%.

Сейчас практически невозможно предугадать, каким будет развитие искусственного интеллекта, насколько умными станут машины в следующие 10, 20 или 100 лет. Попытки предсказать будущее ИИ осложняются тем обстоятельством, что системы ИИ начинают создавать другие системы ИИ уже без участия человека. Об опасности, связанной с выходом из-под контроля ИИ, не раз говорил и основатель SpaseX и Tesla Илон Маск.

По словам Таллинна, если выяснится, что ИИ не очень хорош для создания других ИИ, тогда человечеству не стоит слишком беспокоиться, однако в обратном случае «очень оправданно беспокоиться… о том, что произойдет дальше».

Исследователи безопасности ИИ рассматривают два основных «апокалиптических» сценария.

Первый — это несчастный случай в лаборатории, когда исследовательская группа оставляет ИИ, чтобы тренироваться на компьютерных серверах вечером, а «утром мира больше нет».

Во втором случае исследовательская группа создает прототипную технологию, которая затем применяется в различных областях, «где она в конечном итоге приводят к нежелательным последствиям».

Таллинна больше заботит первый вариант, поскольку меньше людей думают о таком сценарии.

Отвечая на вопрос, беспокоит ли его проблема суперинтеллекта (гипотетическая возможность достижения машиной интеллекта человеческого уровня, который она затем быстро превосходит), он сказал: «Если кто-то говорит, что это произойдет завтра или этого не произойдет в ближайшие 50 лет, я бы сказал, что оба они слишком самоуверенны».

Крупнейшие мировые технологические компании выделяют миллиарды долларов на развитие ИИ. Хотя некоторые из их исследований публикуются открыто, большая часть — нет.

По словам Таллинна, некоторые компании относятся к безопасности искусственного интеллекта более серьезно, чем другие. DeepMind, например, поддерживает регулярные контакты с исследователями безопасности ИИ в таких местах, как Институт будущего человечества в Оксфорде. В нем также работают десятки людей, которые сосредоточены на этой проблеме.

А такие корпоративные центры, как Google Brain и Facebook AI Research, менее вовлечены в сообщество по безопасности искусственного интеллекта.

«Если выяснится, что ИИ в ближайшее время не будет очень разрушительным, тогда, конечно, было бы полезно, если бы компании действительно пытались решать некоторые проблемы более распределенным образом», – полагает Таллинн.

Читайте также