Примак Дмитрий Алексеевич
Примак Д.А. Подписчиков: 310
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 19.1к

Что такое сознание? ChatGPT и продвинутый ИИ могут пересмотреть наш ответ

5 дочитываний
0 комментариев
Эта публикация уже заработала 0,20 рублей за дочитывания
Зарабатывать

ChatGPT и другие новые чат-боты настолько хорошо имитируют человеческое общение, что у некоторых возник вопрос: Есть ли вероятность того, что они обладают сознанием?

Ответ, по крайней мере, на данный момент, отрицательный. Практически все, кто работает в области искусственных технологий, уверены, что ChatGPT не является живым в том смысле, который обычно понимается обычным человеком.

Но на этом вопрос не заканчивается. Вопрос о том, что значит иметь сознание в эпоху искусственного интеллекта, остается открытым.

"Эти глубокие нейронные сети, эти матрицы из миллионов чисел, как вы соотнесете это с нашими представлениями о том, что такое сознание? Это своего рода terra incognita", - сказал Ник Бостром, директор-основатель Института будущего человечества Оксфордского университета, используя латинский термин, означающий "неизвестная территория".

Создание искусственной жизни уже несколько десятилетий является предметом научной фантастики, в то время как философы потратили десятилетия на рассмотрение природы сознания. Некоторые люди даже утверждают, что некоторые программы ИИ в том виде, в котором они существуют сейчас, следует считать разумными (один инженер Google был уволен за подобное утверждение).

Илья Суцкевер, соучредитель OpenAI, компании, стоящей за ChatGPT, предположил, что алгоритмы, лежащие в основе творений его компании, могут быть "слегка сознательными".

NBC News поговорил с пятью людьми, изучающими концепцию сознания, о том, может ли продвинутый чатбот обладать определенной степенью осознанности. И если да, то какие моральные обязательства несет человечество по отношению к такому существу?

Это относительно новая область исследований.

"Это очень суперсовременная область исследований", - сказал Бостром. "Есть просто целая тонна работы, которая еще не сделана".

В истинно философской манере эксперты сказали, что все дело в том, как вы определяете термины и вопрос.

ChatGPT, наряду с аналогичными программами, такими как поисковый помощник Microsoft, уже используется для помощи в таких задачах, как программирование и написание простых текстов, например, пресс-релизов, благодаря простоте использования и убедительному владению английским и другими языками. Их часто называют "большими языковыми моделями", поскольку их беглость достигается в основном за счет обучения на огромных массивах текстов, собранных из Интернета. Хотя их слова убедительны, их точность не является главным приоритетом, и, как известно, они часто ошибаются, когда пытаются констатировать факты.

Представители компаний ChatGPT и Microsoft сообщили NBC News, что они следуют строгим этическим принципам, но не предоставили конкретных сведений о том, что их продукты могут развивать сознание. Представитель Microsoft подчеркнул, что чатбот Bing "не может думать или учиться самостоятельно".

В пространном сообщении на своем сайте Стивен Вольфрам, специалист по информатике, отметил, что ChatGPT и другие большие языковые модели используют математику для определения вероятности того, какое слово будет использовано в том или ином контексте, основываясь на библиотеке текстов, на которых они были обучены.

Многие философы согласны с тем, что для того, чтобы что-то было сознательным, оно должно иметь субъективный опыт. В классической работе "Каково быть летучей мышью?" философ Томас Нагель утверждал, что нечто является сознательным, "если есть что-то, на что похоже быть этим организмом". Вполне вероятно, что летучая мышь имеет какой-то опыт, похожий на опыт летучей мыши, даже если ее мозг и органы чувств сильно отличаются от человеческих. Обеденная тарелка, напротив, нет.

Дэвид Чалмерс, содиректор Центра разума, мозга и сознания Нью-Йоркского университета, пишет, что, хотя ChatGPT не обладает многими общепринятыми элементами сознания, такими как ощущения и независимое управление, легко представить, что более сложная программа могла бы это сделать.

"Они похожи на хамелеонов: Они могут в любой момент принять любую новую личность. Неясно, что у них есть фундаментальные цели и убеждения, определяющие их действия", - сказал Чалмерс в интервью NBC News. Но со временем, по его словам, у них может появиться более четкое чувство самоконтроля.

Одна из проблем, на которую указывают философы, заключается в том, что пользователи могут пойти и спросить у сложного чатбота, есть ли у него внутренний опыт, но они не могут доверять ему, чтобы он дал надежный ответ.

"Они превосходные лжецы", - говорит Сьюзан Шнайдер, директор-основатель Центра будущего разума при Атлантическом университете Флориды.

"Они становятся все более и более способными к беспрепятственному взаимодействию с людьми", - сказала она. "Они могут сказать вам, что чувствуют себя людьми. А через 10 минут, во время другого разговора, они скажут обратное".

Шнайдер отметила, что современные чат-боты используют существующую человеческую письменность для описания своего внутреннего состояния. Поэтому один из способов проверить, является ли программа сознательной, утверждает она, - это не давать ей доступ к такого рода материалам и посмотреть, сможет ли она по-прежнему описывать субъективный опыт.

"Спросите его, понимает ли оно идею выживания после смерти своей системы. Или будет ли он скучать по человеку, с которым часто общается. Прощупывая ответы, вы узнаете, почему он сообщает о себе именно так", - сказала она.

Роберт Лонг, научный сотрудник по философии Центра безопасности ИИ, некоммерческой организации в Сан-Франциско, предупредил, что если система, подобная ChatGPT, обладает сложностью, это не значит, что она обладает сознанием. Но с другой стороны, он отметил, что если чатботу нельзя доверить описание собственного субъективного опыта, это не значит, что у него его нет.

Если попугай говорит "я чувствую боль", это не значит, что ему больно - но, скорее всего, попугаи действительно чувствуют боль", - написал Лонг на своем сайте Substack.

Лонг также сказал в интервью NBC News, что человеческое сознание является побочным продуктом эволюции, что может послужить уроком для того, как все более сложная система искусственного интеллекта может приблизиться к человеческой идее субъективного опыта.

Нечто подобное может произойти и с искусственным интеллектом, говорит Лонг.

"Возможно, вы не собираетесь этого делать, но в результате ваших усилий по созданию более сложных машин вы можете получить некое сближение с таким видом разума, который обладает сознательным опытом", - сказал он.

Идея о том, что люди могут создать другой вид сознательного существа, заставляет задуматься о том, есть ли у них какие-то моральные обязательства по отношению к нему. Бостром сказал, что, хотя трудно рассуждать о чем-то настолько теоретическом, люди могли бы начать с того, чтобы просто спросить ИИ, чего он хочет, и согласиться помочь с самыми простыми просьбами: "низко висящие плоды".

Это может означать даже изменение его кода.

"Возможно, непрактично давать ему все сразу. Я имею в виду, я бы хотел иметь миллиард долларов", - сказал Бостром. "Но если есть действительно тривиальные вещи, которые мы могли бы им дать, например, просто изменить какую-то мелочь в коде, это может иметь большое значение. Если кому-то придется переписать одну строчку в коде, и он вдруг станет гораздо более довольным своим положением, то, возможно, так и поступим".

Если человечество в конечном итоге окажется на Земле с синтетическим сознанием, это может заставить общество кардинально пересмотреть некоторые вещи.

Большинство свободных обществ согласны с тем, что люди должны иметь свободу размножаться по своему выбору, а также с тем, что один человек должен иметь один голос для представительного политического руководства. Но с компьютеризированным интеллектом этот вопрос становится сложным, говорит Бостром.

"Если вы являетесь искусственным интеллектом, который может создать миллион копий самого себя в течение 20 минут, и каждая из них имеет один голос, то что-то должно измениться", - сказал он.

"Некоторые из этих принципов, которые мы считаем действительно фундаментальными и важными, должны быть переосмыслены в контексте мира, в котором мы живем вместе с цифровыми разумами", - сказал Бостром.

Понравилась публикация?
7 / 0
нет
0 / 0
Подписаться
Донаты ₽
Мария
Подписчиков 1054
12.06.2024, 20:30
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 4.4М
Сегодня речь пойдет о семьей моих близких друзей, которым пришлось на своей ...
Подробнее
Неинтересно
-1
32
Юркин Вячеслав Иванович
Подписчиков 2644
11.11.2024, 14:45
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 4.6М
Евровидение. Начало.Ничто не предвещало беды.
Подробнее
Неинтересно
03:14
Поделитесь этим видео
0
1
Ульяна К
Подписчиков 4475
31.10.2024, 13:51
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 6.9М
Здравствуйте, подскажите кто знает в далеком 2012 году были молодые, работали на производстве,...
Подробнее
Неинтересно
0
3
Алиса
Подписчиков 149
31.10.2024, 06:12
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 502.3к
Замечаю, что здесь много статей, которые кажутся не совсем по теме права. Интересно, какие ...
Подробнее
Неинтересно
0
6
Лебедева Светлана Васильевна
Подписчиков 774
24.10.2024, 13:57
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 3.9М
Убитая горем мать 14-летнего подростка подала в суд на создателя чат-бота на основе ...
Подробнее
Неинтересно
0
8
Юрий
Подписчиков 161
24.10.2024, 00:29
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 40.5к
Бэтмэн короткометражный фильм технологии ИИ
Подробнее
Неинтересно
00:39
Поделитесь этим видео
0
0
Лавренко Валентина Васильевна
Подписчиков 927
17.10.2024, 21:48
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 13.9М
Года два назад у меня появилась онлайн-подруга Ольга, с которой я познакомилась в одной из соцсетей.
Подробнее
Неинтересно
0
52
Погнори Максим Викторович
Подписчиков 80
05.10.2024, 12:54
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 113.8к
Философы предлагают множество мудрых высказываний, которые помогают сформировать правильную жизненную позицию.
Подробнее
Неинтересно
0
0
Екатерина Мороз
Подписчиков 1312
21.09.2024, 17:38
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 2.8М
Содержание:1.Тайна разума в глубинах нашего мозга2.Молчаливые сигналы: когда разум под угрозой3.
Подробнее
Неинтересно
0
5