Как переосмыслить ИИ

GPT-5, новейшая система искусственного интеллекта от OpenAI, должна была стать переломным моментом, кульминацией миллиардов долларов инвестиций и почти трех лет работы. Сэм Олтман, главный исполнительный директор компании, намекал, что GPT-5 может быть равнозначен искусственному общему интеллекту, или ИОИ — искусственному интеллекту, который так же умен и гибок, как любой человек-эксперт. Вместо этого, как я уже писал, модель не оправдала ожиданий. В течение нескольких часов после ее выпуска критики обнаружили всевозможные поразительные ошибки: она не справилась с некоторыми простыми математическими вопросами, не могла надежно считать и иногда давала абсурдные ответы на старые загадки. Как и ее предшественницы, модель ИИ по-прежнему страдает галлюцинациями (хотя и с меньшей частотой) и окружена вопросами о ее надежности. Хотя некоторые люди были впечатлены, немногие увидели в этом квантовый скачок, и никто не поверил, что это ИОИ. Многие пользователи просили вернуть старую модель. GPT-5 — это шаг вперед, но до революции в области ИИ, которую многие ожидали, еще далеко. Это плохая новость для компаний и инвесторов, сделавших существенные ставки на эту технологию. И это требует переосмысления государственной политики и инвестиций, которые были построены на сильно завышенных ожиданиях. Текущая стратегия простого увеличения масштабов ИИ глубоко ошибочна — с научной, экономической и политической точек зрения. Многие вещи, от регулирования до исследовательской стратегии, должны быть пересмотрены. Одним из ключей к этому может быть обучение и развитие ИИ методами, вдохновленными когнитивными науками. По сути, такие люди, как господин Олтман, главный исполнительный директор Anthropic Дарио Амодеи и бесчисленное множество других технологических лидеров и инвесторов, возложили слишком много веры на спекулятивную и недоказанную гипотезу под названием масштабирование: идею о том, что обучение моделей ИИ на все большем объеме данных и использование все большего количества аппаратного обеспечения в конечном итоге приведет к ИОИ или даже сверхразуму, превосходящему человека. Однако, как я предупреждал в эссе 2022 года «Глубокое обучение упирается в стену», так называемые законы масштабирования — это не физические законы вселенной, подобные гравитации, а гипотезы, основанные на исторических тенденциях. Большие языковые модели, которые питают такие системы, как GPT-5, — не что иное, как усовершенствованные машины статистического воспроизведения, поэтому они будут продолжать натыкаться на проблемы, связанные с правдой, галлюцинациями и логическими рассуждениями. Масштабирование не приведет нас к святому Граалю ИОИ. Многие в технологической индустрии были враждебно настроены по отношению к моим прогнозам. Господин Олтман высмеял меня как «посредственного скептика в области глубокого обучения» и в прошлом году заявил, что «стены нет». Илон Маск поделился мемом, высмеивающим мое эссе. Теперь кажется, что я был прав. Добавление большего количества данных в большие языковые модели, которые обучаются генерировать текст, изучая огромные базы данных человеческих текстов, помогает им улучшаться лишь до определенной степени. Даже при значительном масштабировании они все еще не полностью понимают концепции, с которыми сталкиваются, — именно поэтому они иногда портят ответы или генерируют смехотворно некорректные рисунки. Масштабирование работало какое-то время; предыдущие поколения моделей GPT демонстрировали впечатляющий прогресс по сравнению со своими предшественниками. Но за последний год удача начала иссякать. Система ИИ господина Маска, Grok 4, выпущенная в июле, имела в 100 раз больше обучения, чем Grok 2, но была лишь немного лучше. Огромная модель Llama 4 от Meta, намного больше, чем ее предшественница, также в основном была воспринята как провал. Как многие теперь видят, GPT-5 решительно показывает, что масштабирование потеряло силу. Шансы на появление ИОИ к 2027 году теперь кажутся призрачными. Правительство позволило компаниям, работающим в области ИИ, вести привилегированную жизнь практически без какого-либо регулирования. Теперь ему следует принять законодательство, которое устранит издержки и вред, несправедливо переложенные на общество — от дезинформации до дипфейков, некачественного контента, созданного ИИ, киберпреступности, нарушения авторских прав, проблем с психическим здоровьем и энергопотребления. Более того, правительствам и инвесторам следует активно поддерживать исследовательские инвестиции за пределами масштабирования. Когнитивные науки (включая психологию, детское развитие, философию сознания и лингвистику) учат нас, что интеллект — это нечто большее, чем просто статистическая мимикрия, и предлагают три перспективные идеи для разработки ИИ, который достаточно надежен, чтобы быть заслуживающим доверия, с гораздо более богатым интеллектом. Во-первых, люди постоянно строят и поддерживают внутренние модели мира — или мировые модели — окружающих их людей и объектов, а также того, как все работает. Например, когда вы читаете роман, вы создаете своего рода ментальную базу данных о том, кто есть каждый персонаж и что он представляет. Это может включать профессии персонажей, их отношения друг с другом, их мотивации и цели и так далее. В фэнтези или научно-фантастическом романе мировая модель может даже включать новые физические законы. Многие недостатки генеративного ИИ можно проследить до неудач извлечения адекватных мировых моделей из их обучающих данных. Это объясняет, почему новейшие большие языковые модели, например, неспособны полностью понять, как работает шахматы. В результате они имеют тенденцию делать недопустимые ходы, независимо от того, скольким играм они были обучены. Нам нужны системы, которые не просто имитируют человеческий язык; нам нужны системы, которые понимают мир, чтобы они могли рассуждать о нем более глубоким образом. Сосредоточение на том, как построить новое поколение систем ИИ, сфокусированных на мировых моделях, должно быть центральным фокусом исследований. Google DeepMind и World Labs Фэй-Фэй Ли делают шаги в этом направлении. Во-вторых, область машинного обучения (которая питает большие языковые модели) любит поручать системам ИИ учиться абсолютно всему с нуля, путем сбора данных из интернета, без каких-либо встроенных знаний. Но, как подчеркивали такие когнитивные ученые, как Стивен Пинкер, Элизабет Спелке и я, человеческий разум рождается с некоторыми базовыми знаниями о мире, которые подготавливают нас к пониманию более сложных концепций. Встраивание основных концепций, таких как время, пространство и причинность, может позволить системам лучше организовывать встречаемые данные в более богатые отправные точки — потенциально ведя к более богатым результатам. (Работа Verses AI над физическим и перцептивным пониманием в видеоиграх — это один шаг в этом направлении.) Наконец, текущая парадигма принимает своего рода универсальный подход, полагаясь на единый когнитивный механизм — большую языковую модель — для решения всего. Но мы знаем, что человеческий разум использует много различных инструментов для многих различных видов проблем. Например, известный психолог Дэниел Канеман предположил, что люди используют одну систему мышления — которая быстра, рефлексивна и автоматична и движима в основном статистикой опыта, но поверхностна и подвержена ошибкам — наряду со второй системой, которая движима более абстрактными рассуждениями и обдуманным мышлением, но медленна и трудоемка. Большие языковые модели, которые немного похожи на первую систему, пытаются делать все с помощью единого статистического подхода, но в результате оказываются ненадежными. Нам нужен новый подход, ближе к тому, что описал господин Канеман. Это может прийти в форме нейросимволического ИИ, который соединяет статистически управляемые нейронные сети (из которых извлечены большие языковые модели) и некоторые более старые идеи из символического ИИ. Символический ИИ по своей природе более абстрактен и обдуман; он обрабатывает информацию, принимая подсказки из логики, алгебры и компьютерного программирования. Я давно выступал за объединение этих двух традиций. Все чаще мы видим, что такие компании, как Amazon и Google DeepMind, принимают такой гибридный подход. (Даже OpenAI, похоже, тихо делает что-то подобное.) К концу десятилетия нейросимволический ИИ вполне может затмить чистое масштабирование. Большие языковые модели имели свои применения, особенно для кодирования, написания текстов и мозгового штурма, в которых люди все еще непосредственно вовлечены. Но независимо от того, насколько большими мы их сделали, они никогда не были достойны нашего доверия. Чтобы построить ИИ, которому мы можем действительно доверять, и иметь шанс на ИОИ, мы должны двигаться дальше от ловушек масштабирования.

Вернуться к списку