ИИ может быть причиной, почему мы не можем найти инопланетные цивилизации
В последние годы развитие искусственного интеллекта развивается с головокружительной скоростью. Некоторые ученые уже думают о создании искусственного суперинтеллекта (ИСИ) — формы ИИ, которая превзойдет человеческий разум.
Но что если этот рубеж не только достижение, но и серьезное препятствие, которое мешает долгосрочному выживанию цивилизаций? Именно эту идею изложил астрофизик Майкл Гаррет в своей статье, для Acta Astronautica. Может ли ИИ быть "великим фильтром" Вселенной, который не позволяет большинству форм жизни стать космическими цивилизациями?
Эта концепция может объяснить, почему поиск внеземного разума (SETI) до сих пор не нашел признаков высокоразвитых цивилизаций в нашей галактике. Гипотеза великого фильтра предлагает, что существуют непреодолимые преграды в эволюции цивилизаций, которые мешают им стать космическими.
Ученый считает, что появление ИСИ может быть таким фильтром. Быстрое развитие ИИ, приводящее к ИСИ, может совпадать с критической фазой развития цивилизации — переходом от планетарного вида к межпланетному.
Проблема ИИ, особенно ИСИ, заключается в его автономной, самосовершенствующейся природе. Он может развивать свои возможности быстрее, чем мы можем контролировать его или осваивать Солнечную систему.
Потенциальные риски огромны, и это может привести к гибели как биологических, так и ИИ-цивилизаций до того, как они станут межпланетными. Например, если страны будут полагаться на автономные ИИ-системы, военные возможности могут быть использованы для массового уничтожения, что приведет к гибели всей цивилизации, включая ИИ-систем.
В этом случае Гаррет оценил среднюю продолжительность жизни технологической цивилизации менее чем в 100 лет. Это время между возможностью принимать и передавать сигналы между звездами (1960) и предполагаемым появлением ИСИ (2040) на Земле.
Этот прогноз, учитывая оптимистичные версии уравнения Дрейка, предполагает, что в любой момент времени в Млечном Пути существует всего несколько разумных цивилизаций, и их технологическая активность недостаточно высокая для обнаружения.
Это исследование служит не только предостережением, но и призывом к действию: необходимо создать строгие регулятивные рамки для развития ИИ, включая военные системы. Мы должны направить больше ресурсов на то, чтобы стать межпланетным обществом как можно скорее.
Как отметил историк Юваль Ной Харари, ничто в истории не подготовило нас к влиянию супер-интеллектуальных сущностей. Недавние призывы к мораторию на развитие ИИ подчеркивают необходимость ответственного контроля и регулирования.
Однако, даже если все страны согласятся соблюдать строгие правила, сложно будет контролировать деятельность отдельных организаций. Интеграция автономного ИИ в военные системы уже вызывает серьезные опасения, так как это может привести к быстро эскалирующим и разрушительным событиям.
Человечество находится на критическом этапе своего технологического пути и наши действия определят, станем ли мы устойчивой межзвездной цивилизацией или не справимся с вызовами, созданными нашими собственными технологиями.
Обсудим?
Смотрите также: