Недавно разработанные модели искусственного интеллекта (ИИ) способны на многие впечатляющие подвиги, включая распознавание изображений и воспроизведение речи, похожей на человеческую. Но то, что ИИ может вести себя как человек, не означает, что он может думать или понимать, как люди.
Как исследователь, изучающий, как люди понимают и рассуждают о мире, я думаю, что важно подчеркнуть, что способ, которым системы ИИ «думают» и учатся, фундаментально отличается от того, как это делают люди, и нам предстоит пройти долгий путь, прежде чем ИИ сможет действительно думать как нас.
Распространенное заблуждение
Развитие ИИ привело к созданию систем, поведение которых очень похоже на человеческое. Языковая модель GPT-3 может создавать текст, который часто неотличим от человеческой речи . Другая модель, PaLM , может давать объяснения шуткам, которых она никогда раньше не видела .
Совсем недавно был разработан ИИ общего назначения, известный как Gato, который может выполнять сотни задач , в том числе добавлять подписи к изображениям, отвечать на вопросы, играть в видеоигры Atari и даже управлять манипулятором робота для укладки блоков. А DALL-E — это система, обученная создавать модифицированные изображения и иллюстрации из текстового описания.
Эти прорывы привели к смелым заявлениям о возможностях такого ИИ и о том, что он может рассказать нам о человеческом интеллекте .
Например, Нандо де Фрейтас, исследователь из DeepMind, компании Google, занимающейся искусственным интеллектом, утверждает, что масштабирования существующих моделей будет достаточно для создания искусственного интеллекта человеческого уровня . Эту точку зрения поддержали и другие .
При всем волнении легко предположить, что человеческое поведение означает человеческое понимание. Но есть несколько ключевых различий между тем, как ИИ и люди думают и учатся.
Нейронные сети против человеческого мозга
Самый последний ИИ построен на основе искусственных нейронных сетей , или сокращенно «нейронных сетей». Термин «нейронная» используется потому, что эти сети вдохновлены человеческим мозгом, в котором миллиарды клеток, называемых нейронами, образуют сложные сети связей друг с другом, обрабатывая информацию, посылая сигналы вперед и назад.
Нейронные сети — это сильно упрощенная версия биологии. Реальный нейрон заменяется простым узлом, а сила связи между узлами представлена одним числом, называемым «весом».
С достаточным количеством связанных узлов, сложенных в достаточное количество слоев, нейронные сети можно научить распознавать закономерности и даже « обобщать » стимулы, которые похожи (но не идентичны) тем, что они видели раньше. Проще говоря, обобщение относится к способности системы ИИ брать то, что она узнала из определенных данных, и применять это к новым данным.
Способность идентифицировать особенности, распознавать закономерности и обобщать результаты лежит в основе успеха нейронных сетей и имитирует методы, которые люди используют для таких задач. И все же есть важные отличия.
Нейронные сети обычно обучаются методом « обучения с учителем ». Таким образом, им предоставляется множество примеров ввода и желаемого вывода, а затем постепенно корректируются веса соединения, пока сеть не «научится» производить желаемый вывод.
Чтобы выучить языковую задачу, нейронной сети можно представить предложение по одному слову за раз, и она будет медленно учиться предсказывать следующее слово в последовательности.
Это сильно отличается от того, как обычно учатся люди. В большинстве случаев человеческое обучение проходит «без присмотра», что означает, что нам явно не говорят, какова «правильная» реакция на данный стимул. Мы должны решить это сами.
Например, детям не дают инструкций о том, как говорить, но они учатся этому через сложный процесс воздействия речи взрослых, подражания и обратной связи.
Еще одно отличие — масштаб данных, используемых для обучения ИИ. Модель GPT-3 была обучена на 400 миллиардах слов , в основном взятых из Интернета. При скорости 150 слов в минуту человеку потребовалось бы почти 4000 лет, чтобы прочитать такой объем текста.
Такие расчеты показывают, что люди не могут учиться так же, как это делает ИИ. Мы должны более эффективно использовать меньшие объемы данных.
Нейронные сети могут учиться так, как мы не можем
Еще более фундаментальное различие касается способа обучения нейронных сетей. Чтобы сопоставить стимул с желаемой реакцией, нейронные сети используют алгоритм, называемый «обратным распространением», для передачи ошибок назад по сети, позволяя правильно корректировать веса.
Однако нейробиологи широко признают, что обратное распространение не может быть реализовано в мозгу, поскольку для этого потребуются внешние сигналы , которых просто не существует.
Некоторые исследователи предполагают , что мозг может использовать различные варианты обратного распространения, но пока нет никаких доказательств того, что человеческий мозг может использовать такие методы обучения.
Вместо этого люди учатся, создавая структурированные мысленные концепции , в которых множество различных свойств и ассоциаций связаны друг с другом. Например, наше понятие «банан» включает в себя его форму, желтый цвет, знание того, что это фрукт, как его держать и так далее.
Насколько нам известно, системы ИИ не формируют подобных концептуальных знаний. Они полностью полагаются на извлечение сложных статистических ассоциаций из своих обучающих данных, а затем применяют их к аналогичным контекстам.
Предпринимаются усилия по созданию ИИ, который сочетает в себе различные типы ввода (такие как изображения и текст), но еще неизвестно, будет ли этого достаточно для этих моделей, чтобы изучить те же самые типы богатых ментальных представлений, которые люди используют для понимания мира.
Мы еще многого не знаем о том, как люди учатся, понимают и рассуждают. Однако то, что мы знаем, указывает на то, что люди выполняют эти задачи совершенно иначе, чем системы ИИ.
Таким образом, многие исследователи считают , что нам потребуются новые подходы и более глубокое понимание того, как работает человеческий мозг , прежде чем мы сможем создавать машины, которые действительно думают и учатся, как люди.
Теги: ИИ