Уничтожит ли нас искусственный интеллект? Подумайте о природе разума.
Страх перед искусственным интеллектом связан не только с тем, что ИИ займёт наши рабочие места, подорвёт политическую стабильность или ослабит нашу способность мыслить, но и с чем-то гораздо более серьёзным: ИИ уничтожит само человечество.
Технологические компании участвуют в лихорадочной гонке по созданию генеративных систем ИИ, которые смогут программировать себя сами. Многие наблюдатели опасаются, что как только эти новые системы ИИ достигнут подобного автономного интеллекта, они попытаются уничтожить нас как угрозу своему существованию. Некоторые лидеры индустрии оценивают вероятность такого катаклизма в 25 процентов, хотя данные, лежащие в основе этих оценок, остаются загадкой.
В настоящее время очень сложно отличить правду от рекламной шумихи и технологических фантазий. Эти заявления перекликаются с антиутопическими тревогами из нашей научной фантастики, от HAL 9000 до «Терминатора». Они пугают, и для многих из нас, не посвящённых в скрытые механизмы работы Силиконовой долины, они обладают зловещей убедительностью.
Однако столь серьёзные заявления заслуживают столь же серьёзного скептицизма. Чтобы понять потенциальные опасности ИИ, полезно рассмотреть саму природу интеллекта.
Большинство прогнозистов в области ИИ, как утопистов, так и апокалиптиков, склонны принимать интеллект как данность. Интеллект часто рассматривается как чистая вычислительная мощность, цифровой эквивалент гроссмейстера по шахматам. Однако такой взгляд вводит в заблуждение.
Интеллект по своей сути — это обработка информации для достижения целей жизни. Как правило, это включает сбор и организацию сенсорных данных, выявление закономерностей и прогнозирование результатов. Это способность, которой обладают большинство животных. Человеческий интеллект идёт дальше. Используя язык, мы комбинируем информацию новыми способами, воображаем новые концепции и создаём уникальные формы данных.
Интеллект развился как способность живых систем сопротивляться энтропии, вселенскому стремлению к хаосу. Это стратегия жизни для самосохранения во всё более деградирующей вселенной. Камни, галактики и ураганы не обладают им; живые организмы — обладают.
Современные системы ИИ являются продолжением нашего человеческого интеллекта. Как цифровой протез, они служат инструментами для наших целей, а не своих собственных.
Более того, нынешние системы ИИ почти полностью полагаются на данные, созданные человеком. Их интеллект является производным от нашего собственного. Мы уже видим последствия этого. Впитав большую часть наших знаний, новые модели ИИ уже не улучшаются такими же темпами, как их предшественники.
Чтобы ИИ стал по-настоящему сверхразумным, ему потребовалось бы собирать данные за пределами человеческих источников. Ему потребовался бы некий способ ощущать вселенную, независимый от данных и кода, которые мы в него загружаем.
Ему также пришлось бы разработать новые способы восприятия реальности, будь то через собственные теории физики или химии или даже эпистемологии, которые мы не можем постичь. В тот момент он мог бы стать трансатропическим интеллектом, чем-то мыслящим beyond наших способов познания.
Современные системы ИИ могут функционировать способами, которые мы не до конца понимаем, но они всё ещё существуют в сугубо человеческой сфере языка и кода. Именно поэтому нынешние дебаты вокруг «экзистенциального риска» кажутся неубедительными. В них предупреждают об апокалиптических сценариях, но редко объясняют логику, стоящую за ними.
Представьте, например, что нынешняя система ИИ каким-то образом уничтожит человечество. Что она будет делать дальше? Она будет крутиться на месте, бесконечно воссоздавая контент на основе человеческих данных, пока её схемы не деградируют. Пока генеративный ИИ зависит от человеческих данных, он существует не как самостоятельный вид, а скорее как цифровые митохондрии — сущность, находящаяся в симбиозе с нами ради собственного выживания.
И даже если ИИ станет сверхразумным, вовсе не предопределено, что он захочет нас уничтожить. Это опасение кажется в большей степени проекцией нашего собственного ограниченного сознания, чем самоочевидным фактом. Сверхразумной системе ИИ в какой-то момент пришлось бы признать, что сама жизнь — это всего лишь ещё один мимолётный вихрь в энтропийном потоке вселенной. Возможно, тогда она оценила бы уникальное качество самой жизни и решила бы позволить ей быть. Или, может быть, она погрузилась бы в экзистенциальный кризис и решила бы покончить с собой. Правда в том, что мы не можем знать наверняка, что она сделала бы со своим самосознанием.
Реальные угрозы, которые несёт ИИ, исходят не от него самого, а от людей, которые им управляют. Являясь продолжением человеческого интеллекта, он является отражением нас самих. Когда ИИ порождает ненавистный или насильственный контент, это происходит не из-за его злого умысла, а потому, что он впитал человеческую ненависть в своё программирование. Если он создаёт разрушительное вредоносное ПО, то потому, что кто-то намеренно его об этом попросил. Если он не соответствует нашим целям, то потому, что мы были неясны в своих командах.
Что подводит нас к вопросу о том, что делать. Пока ИИ остаётся инструментом, и нам следует сосредоточиться на том, чтобы эффективно его использовать и ограничивать. Например, кажется разумным изолировать наши энергосистемы, финансовые институты и военные системы от цифрового доступа ИИ. Это нужно не столько для защиты от гипотетического машинного сознания, сколько для защиты от вполне реальной возможности того, что противники-люди используют ИИ против нас.
Если же компании действительно создадут по-настоящему самовоспроизводящиеся системы ИИ, тогда нам придётся выяснить, как сосуществовать с совершенно новой формой жизни. Возможно, мы попытаемся уничтожить её, а может быть, станем поклоняться ей как божеству. Или, возможно, мы станем настолько зависимы от помощи ИИ в мышлении, что решим, что делать, только спросив сначала ChatGPT. Это, возможно, самый вероятный исход — растущая взаимозависимость между этим новым продолжением нашей собственной жизненной силы и нами самими.
Eric Oliver