Астробиология

ИИ может быть виноват в нашей неспособности установить контакт с инопланетными цивилизациями

ИИ может быть виноват в нашей неспособности установить контакт с инопланетными цивилизациями

Существует ошеломляющее количество планет. Фото: НАСА/Телескоп Джеймса Уэбба.

За последние несколько лет искусственный интеллект (ИИ) развивался поразительными темпами. Некоторые ученые сейчас рассматривают возможность разработки искусственного сверхинтеллекта (ИСИ) — формы ИИ, которая не только превзойдет человеческий интеллект, но и не будет ограничена скоростью обучения людей.

Но что, если эта веха — не просто выдающееся достижение? Что, если оно также представляет собой серьезное препятствие в развитии всех цивилизаций, настолько сложное, что мешает их долгосрочному выживанию?

Эта идея лежит в основе исследовательской статьи, которую я недавно опубликовал в Acta Astronautica. Может ли ИИ стать «великим фильтром» Вселенной — порогом, который настолько трудно преодолеть, что он препятствует развитию большей части жизни в космические цивилизации?

Эта концепция может объяснить, почему поиск внеземного разума (SETI) до сих пор не обнаружил следов развитых технических цивилизаций в других частях галактики.

Гипотеза великого фильтра в конечном итоге является предлагаемым решением парадокса Ферми. Возникает вопрос, почему во вселенной, огромной и достаточно древней, чтобы вместить миллиарды потенциально обитаемых планет, мы не обнаружили никаких признаков инопланетных цивилизаций. Гипотеза предполагает, что на временной шкале эволюции цивилизаций существуют непреодолимые препятствия, которые мешают им развиться в космические существа.

Я считаю, что появление ИСИ могло бы стать таким фильтром. Быстрое развитие ИИ, потенциально ведущее к ИСИ, может пересечься с критической фазой развития цивилизации — переходом от однопланетного вида к многопланетному.

Именно здесь многие цивилизации могут потерпеть неудачу, поскольку ИИ будет прогрессировать гораздо быстрее, чем наша способность контролировать его или устойчиво исследовать и заселять нашу Солнечную систему.

Проблема ИИ, и в частности ИСИ, заключается в его автономной, самоусиливающейся и улучшающейся природе. Он обладает потенциалом расширять свои возможности со скоростью, которая опережает наши собственные эволюционные сроки без ИИ.

Вероятность того, что что-то пойдет не так, огромна, что приведет к падению как биологических цивилизаций, так и цивилизаций искусственного интеллекта, прежде чем они когда-либо получат шанс стать многопланетными. Например, если страны все больше будут полагаться на автономные системы искусственного интеллекта, конкурирующие друг с другом, и уступать им власть, военные возможности могут быть использованы для убийств и разрушений в беспрецедентных масштабах. Потенциально это может привести к уничтожению всей нашей цивилизации, включая сами системы ИИ.

По моим оценкам, в этом сценарии типичная продолжительность жизни технологической цивилизации может составлять менее 100 лет. Это примерно время между возможностью приема и передачи сигналов между звездами (1960 г.) и предполагаемым появлением ASI (2040 г.) на Земле. Это тревожно короткий срок по сравнению с космическими временными рамками в миллиарды лет.

Эта оценка, если ее включить в оптимистические версии уравнения Дрейка, которое пытается оценить количество активных, коммуникативных внеземных цивилизаций в Млечном Пути, предполагает, что в любой момент времени там существует лишь горстка разумных цивилизаций. Более того, как и в случае с нами, их относительно скромная технологическая деятельность может затруднить их обнаружение.

Звонок-будильник

Это исследование — не просто предостерегающая история о потенциальной гибели. Это послужит тревожным сигналом для человечества о необходимости создания надежной нормативно-правовой базы для развития ИИ, включая военные системы.

Речь идет не только о предотвращении злонамеренного использования ИИ на Земле; речь также идет о том, чтобы эволюция ИИ соответствовала долгосрочному выживанию нашего вида. Это предполагает, что нам необходимо как можно скорее вложить больше ресурсов в создание многопланетного общества — цель, которая бездействовала со времен бурных дней проекта «Аполлон», но в последнее время была вновь возрождена благодаря достижениям частных компаний.

Как отметил историк Юваль Ноа Харари, ничто в истории не подготовило нас к последствиям появления на нашей планете бессознательных, сверхразумных существ. В последнее время последствия автономного принятия решений ИИ привели к призывам видных лидеров в этой области к мораторию на развитие ИИ до тех пор, пока не будет введена ответственная форма контроля и регулирования.

Но даже если каждая страна согласится соблюдать строгие правила и регулирование, мошеннические организации будет трудно обуздать.

Интеграция автономного ИИ в системы военной обороны должна вызывать особую озабоченность. Уже есть свидетельства того, что люди добровольно отдадут значительную часть власти более способным системам, поскольку они смогут выполнять полезные задачи гораздо быстрее и эффективнее без вмешательства человека. Поэтому правительства неохотно регулируют эту область, учитывая стратегические преимущества, которые предлагает ИИ, как это было недавно и разрушительно продемонстрировано в секторе Газа.

Это означает, что мы уже опасно близки к пропасти, где автономное оружие выходит за рамки этических границ и обходит международное право. В таком мире передача власти системам искусственного интеллекта ради получения тактического преимущества может непреднамеренно спровоцировать цепь быстро развивающихся и крайне разрушительных событий. В мгновение ока коллективный разум нашей планеты может быть уничтожен.

Человечество находится на решающем этапе своего технологического развития. Наши действия теперь могут определить, станем ли мы устойчивой межзвездной цивилизацией или поддадимся вызовам, создаваемым нашими собственными творениями.

Использование SETI в качестве линзы, через которую мы можем рассматривать наше будущее развитие, добавляет новое измерение в дискуссию о будущем ИИ. От всех нас зависит, чтобы, достигая звезд, мы делали это не как предостерегающая история для других цивилизаций, а как маяк надежды — вид, который научился процветать вместе с ИИ.

Информация от: Разговором

Эта статья переиздана из The Conversation под лицензией Creative Commons. Прочтите оригинал статьи.Разговор

Кнопка «Наверх»