Что такое сознание? ChatGPT и продвинутый ИИ могут пересмотреть наш ответ
ChatGPT и другие новые чат-боты настолько хорошо имитируют человеческое общение, что у некоторых возник вопрос: Есть ли вероятность того, что они обладают сознанием?
Ответ, по крайней мере, на данный момент, отрицательный. Практически все, кто работает в области искусственных технологий, уверены, что ChatGPT не является живым в том смысле, который обычно понимается обычным человеком.
Но на этом вопрос не заканчивается. Вопрос о том, что значит иметь сознание в эпоху искусственного интеллекта, остается открытым.
"Эти глубокие нейронные сети, эти матрицы из миллионов чисел, как вы соотнесете это с нашими представлениями о том, что такое сознание? Это своего рода terra incognita", - сказал Ник Бостром, директор-основатель Института будущего человечества Оксфордского университета, используя латинский термин, означающий "неизвестная территория".
Создание искусственной жизни уже несколько десятилетий является предметом научной фантастики, в то время как философы потратили десятилетия на рассмотрение природы сознания. Некоторые люди даже утверждают, что некоторые программы ИИ в том виде, в котором они существуют сейчас, следует считать разумными (один инженер Google был уволен за подобное утверждение).
Илья Суцкевер, соучредитель OpenAI, компании, стоящей за ChatGPT, предположил, что алгоритмы, лежащие в основе творений его компании, могут быть "слегка сознательными".
NBC News поговорил с пятью людьми, изучающими концепцию сознания, о том, может ли продвинутый чатбот обладать определенной степенью осознанности. И если да, то какие моральные обязательства несет человечество по отношению к такому существу?
Это относительно новая область исследований.
"Это очень суперсовременная область исследований", - сказал Бостром. "Есть просто целая тонна работы, которая еще не сделана".
В истинно философской манере эксперты сказали, что все дело в том, как вы определяете термины и вопрос.
ChatGPT, наряду с аналогичными программами, такими как поисковый помощник Microsoft, уже используется для помощи в таких задачах, как программирование и написание простых текстов, например, пресс-релизов, благодаря простоте использования и убедительному владению английским и другими языками. Их часто называют "большими языковыми моделями", поскольку их беглость достигается в основном за счет обучения на огромных массивах текстов, собранных из Интернета. Хотя их слова убедительны, их точность не является главным приоритетом, и, как известно, они часто ошибаются, когда пытаются констатировать факты.
Представители компаний ChatGPT и Microsoft сообщили NBC News, что они следуют строгим этическим принципам, но не предоставили конкретных сведений о том, что их продукты могут развивать сознание. Представитель Microsoft подчеркнул, что чатбот Bing "не может думать или учиться самостоятельно".
В пространном сообщении на своем сайте Стивен Вольфрам, специалист по информатике, отметил, что ChatGPT и другие большие языковые модели используют математику для определения вероятности того, какое слово будет использовано в том или ином контексте, основываясь на библиотеке текстов, на которых они были обучены.
Многие философы согласны с тем, что для того, чтобы что-то было сознательным, оно должно иметь субъективный опыт. В классической работе "Каково быть летучей мышью?" философ Томас Нагель утверждал, что нечто является сознательным, "если есть что-то, на что похоже быть этим организмом". Вполне вероятно, что летучая мышь имеет какой-то опыт, похожий на опыт летучей мыши, даже если ее мозг и органы чувств сильно отличаются от человеческих. Обеденная тарелка, напротив, нет.
Дэвид Чалмерс, содиректор Центра разума, мозга и сознания Нью-Йоркского университета, пишет, что, хотя ChatGPT не обладает многими общепринятыми элементами сознания, такими как ощущения и независимое управление, легко представить, что более сложная программа могла бы это сделать.
"Они похожи на хамелеонов: Они могут в любой момент принять любую новую личность. Неясно, что у них есть фундаментальные цели и убеждения, определяющие их действия", - сказал Чалмерс в интервью NBC News. Но со временем, по его словам, у них может появиться более четкое чувство самоконтроля.
Одна из проблем, на которую указывают философы, заключается в том, что пользователи могут пойти и спросить у сложного чатбота, есть ли у него внутренний опыт, но они не могут доверять ему, чтобы он дал надежный ответ.
"Они превосходные лжецы", - говорит Сьюзан Шнайдер, директор-основатель Центра будущего разума при Атлантическом университете Флориды.
"Они становятся все более и более способными к беспрепятственному взаимодействию с людьми", - сказала она. "Они могут сказать вам, что чувствуют себя людьми. А через 10 минут, во время другого разговора, они скажут обратное".
Шнайдер отметила, что современные чат-боты используют существующую человеческую письменность для описания своего внутреннего состояния. Поэтому один из способов проверить, является ли программа сознательной, утверждает она, - это не давать ей доступ к такого рода материалам и посмотреть, сможет ли она по-прежнему описывать субъективный опыт.
"Спросите его, понимает ли оно идею выживания после смерти своей системы. Или будет ли он скучать по человеку, с которым часто общается. Прощупывая ответы, вы узнаете, почему он сообщает о себе именно так", - сказала она.
Роберт Лонг, научный сотрудник по философии Центра безопасности ИИ, некоммерческой организации в Сан-Франциско, предупредил, что если система, подобная ChatGPT, обладает сложностью, это не значит, что она обладает сознанием. Но с другой стороны, он отметил, что если чатботу нельзя доверить описание собственного субъективного опыта, это не значит, что у него его нет.
Если попугай говорит "я чувствую боль", это не значит, что ему больно - но, скорее всего, попугаи действительно чувствуют боль", - написал Лонг на своем сайте Substack.
Лонг также сказал в интервью NBC News, что человеческое сознание является побочным продуктом эволюции, что может послужить уроком для того, как все более сложная система искусственного интеллекта может приблизиться к человеческой идее субъективного опыта.
Нечто подобное может произойти и с искусственным интеллектом, говорит Лонг.
"Возможно, вы не собираетесь этого делать, но в результате ваших усилий по созданию более сложных машин вы можете получить некое сближение с таким видом разума, который обладает сознательным опытом", - сказал он.
Идея о том, что люди могут создать другой вид сознательного существа, заставляет задуматься о том, есть ли у них какие-то моральные обязательства по отношению к нему. Бостром сказал, что, хотя трудно рассуждать о чем-то настолько теоретическом, люди могли бы начать с того, чтобы просто спросить ИИ, чего он хочет, и согласиться помочь с самыми простыми просьбами: "низко висящие плоды".
Это может означать даже изменение его кода.
"Возможно, непрактично давать ему все сразу. Я имею в виду, я бы хотел иметь миллиард долларов", - сказал Бостром. "Но если есть действительно тривиальные вещи, которые мы могли бы им дать, например, просто изменить какую-то мелочь в коде, это может иметь большое значение. Если кому-то придется переписать одну строчку в коде, и он вдруг станет гораздо более довольным своим положением, то, возможно, так и поступим".
Если человечество в конечном итоге окажется на Земле с синтетическим сознанием, это может заставить общество кардинально пересмотреть некоторые вещи.
Большинство свободных обществ согласны с тем, что люди должны иметь свободу размножаться по своему выбору, а также с тем, что один человек должен иметь один голос для представительного политического руководства. Но с компьютеризированным интеллектом этот вопрос становится сложным, говорит Бостром.
"Если вы являетесь искусственным интеллектом, который может создать миллион копий самого себя в течение 20 минут, и каждая из них имеет один голос, то что-то должно измениться", - сказал он.
"Некоторые из этих принципов, которые мы считаем действительно фундаментальными и важными, должны быть переосмыслены в контексте мира, в котором мы живем вместе с цифровыми разумами", - сказал Бостром.