Примак Дмитрий Алексеевич
Примак Д.А. Подписчиков: 310
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 13.7к

Что такое сознание? ChatGPT и продвинутый ИИ могут пересмотреть наш ответ

5 дочитываний
0 комментариев
Эта публикация уже заработала 0,20 рублей за дочитывания
Зарабатывать

ChatGPT и другие новые чат-боты настолько хорошо имитируют человеческое общение, что у некоторых возник вопрос: Есть ли вероятность того, что они обладают сознанием?

Ответ, по крайней мере, на данный момент, отрицательный. Практически все, кто работает в области искусственных технологий, уверены, что ChatGPT не является живым в том смысле, который обычно понимается обычным человеком.

Но на этом вопрос не заканчивается. Вопрос о том, что значит иметь сознание в эпоху искусственного интеллекта, остается открытым.

"Эти глубокие нейронные сети, эти матрицы из миллионов чисел, как вы соотнесете это с нашими представлениями о том, что такое сознание? Это своего рода terra incognita", - сказал Ник Бостром, директор-основатель Института будущего человечества Оксфордского университета, используя латинский термин, означающий "неизвестная территория".

Создание искусственной жизни уже несколько десятилетий является предметом научной фантастики, в то время как философы потратили десятилетия на рассмотрение природы сознания. Некоторые люди даже утверждают, что некоторые программы ИИ в том виде, в котором они существуют сейчас, следует считать разумными (один инженер Google был уволен за подобное утверждение).

Илья Суцкевер, соучредитель OpenAI, компании, стоящей за ChatGPT, предположил, что алгоритмы, лежащие в основе творений его компании, могут быть "слегка сознательными".

NBC News поговорил с пятью людьми, изучающими концепцию сознания, о том, может ли продвинутый чатбот обладать определенной степенью осознанности. И если да, то какие моральные обязательства несет человечество по отношению к такому существу?

Это относительно новая область исследований.

"Это очень суперсовременная область исследований", - сказал Бостром. "Есть просто целая тонна работы, которая еще не сделана".

В истинно философской манере эксперты сказали, что все дело в том, как вы определяете термины и вопрос.

ChatGPT, наряду с аналогичными программами, такими как поисковый помощник Microsoft, уже используется для помощи в таких задачах, как программирование и написание простых текстов, например, пресс-релизов, благодаря простоте использования и убедительному владению английским и другими языками. Их часто называют "большими языковыми моделями", поскольку их беглость достигается в основном за счет обучения на огромных массивах текстов, собранных из Интернета. Хотя их слова убедительны, их точность не является главным приоритетом, и, как известно, они часто ошибаются, когда пытаются констатировать факты.

Представители компаний ChatGPT и Microsoft сообщили NBC News, что они следуют строгим этическим принципам, но не предоставили конкретных сведений о том, что их продукты могут развивать сознание. Представитель Microsoft подчеркнул, что чатбот Bing "не может думать или учиться самостоятельно".

В пространном сообщении на своем сайте Стивен Вольфрам, специалист по информатике, отметил, что ChatGPT и другие большие языковые модели используют математику для определения вероятности того, какое слово будет использовано в том или ином контексте, основываясь на библиотеке текстов, на которых они были обучены.

Многие философы согласны с тем, что для того, чтобы что-то было сознательным, оно должно иметь субъективный опыт. В классической работе "Каково быть летучей мышью?" философ Томас Нагель утверждал, что нечто является сознательным, "если есть что-то, на что похоже быть этим организмом". Вполне вероятно, что летучая мышь имеет какой-то опыт, похожий на опыт летучей мыши, даже если ее мозг и органы чувств сильно отличаются от человеческих. Обеденная тарелка, напротив, нет.

Дэвид Чалмерс, содиректор Центра разума, мозга и сознания Нью-Йоркского университета, пишет, что, хотя ChatGPT не обладает многими общепринятыми элементами сознания, такими как ощущения и независимое управление, легко представить, что более сложная программа могла бы это сделать.

"Они похожи на хамелеонов: Они могут в любой момент принять любую новую личность. Неясно, что у них есть фундаментальные цели и убеждения, определяющие их действия", - сказал Чалмерс в интервью NBC News. Но со временем, по его словам, у них может появиться более четкое чувство самоконтроля.

Одна из проблем, на которую указывают философы, заключается в том, что пользователи могут пойти и спросить у сложного чатбота, есть ли у него внутренний опыт, но они не могут доверять ему, чтобы он дал надежный ответ.

"Они превосходные лжецы", - говорит Сьюзан Шнайдер, директор-основатель Центра будущего разума при Атлантическом университете Флориды.

"Они становятся все более и более способными к беспрепятственному взаимодействию с людьми", - сказала она. "Они могут сказать вам, что чувствуют себя людьми. А через 10 минут, во время другого разговора, они скажут обратное".

Шнайдер отметила, что современные чат-боты используют существующую человеческую письменность для описания своего внутреннего состояния. Поэтому один из способов проверить, является ли программа сознательной, утверждает она, - это не давать ей доступ к такого рода материалам и посмотреть, сможет ли она по-прежнему описывать субъективный опыт.

"Спросите его, понимает ли оно идею выживания после смерти своей системы. Или будет ли он скучать по человеку, с которым часто общается. Прощупывая ответы, вы узнаете, почему он сообщает о себе именно так", - сказала она.

Роберт Лонг, научный сотрудник по философии Центра безопасности ИИ, некоммерческой организации в Сан-Франциско, предупредил, что если система, подобная ChatGPT, обладает сложностью, это не значит, что она обладает сознанием. Но с другой стороны, он отметил, что если чатботу нельзя доверить описание собственного субъективного опыта, это не значит, что у него его нет.

Если попугай говорит "я чувствую боль", это не значит, что ему больно - но, скорее всего, попугаи действительно чувствуют боль", - написал Лонг на своем сайте Substack.

Лонг также сказал в интервью NBC News, что человеческое сознание является побочным продуктом эволюции, что может послужить уроком для того, как все более сложная система искусственного интеллекта может приблизиться к человеческой идее субъективного опыта.

Нечто подобное может произойти и с искусственным интеллектом, говорит Лонг.

"Возможно, вы не собираетесь этого делать, но в результате ваших усилий по созданию более сложных машин вы можете получить некое сближение с таким видом разума, который обладает сознательным опытом", - сказал он.

Идея о том, что люди могут создать другой вид сознательного существа, заставляет задуматься о том, есть ли у них какие-то моральные обязательства по отношению к нему. Бостром сказал, что, хотя трудно рассуждать о чем-то настолько теоретическом, люди могли бы начать с того, чтобы просто спросить ИИ, чего он хочет, и согласиться помочь с самыми простыми просьбами: "низко висящие плоды".

Это может означать даже изменение его кода.

"Возможно, непрактично давать ему все сразу. Я имею в виду, я бы хотел иметь миллиард долларов", - сказал Бостром. "Но если есть действительно тривиальные вещи, которые мы могли бы им дать, например, просто изменить какую-то мелочь в коде, это может иметь большое значение. Если кому-то придется переписать одну строчку в коде, и он вдруг станет гораздо более довольным своим положением, то, возможно, так и поступим".

Если человечество в конечном итоге окажется на Земле с синтетическим сознанием, это может заставить общество кардинально пересмотреть некоторые вещи.

Большинство свободных обществ согласны с тем, что люди должны иметь свободу размножаться по своему выбору, а также с тем, что один человек должен иметь один голос для представительного политического руководства. Но с компьютеризированным интеллектом этот вопрос становится сложным, говорит Бостром.

"Если вы являетесь искусственным интеллектом, который может создать миллион копий самого себя в течение 20 минут, и каждая из них имеет один голос, то что-то должно измениться", - сказал он.

"Некоторые из этих принципов, которые мы считаем действительно фундаментальными и важными, должны быть переосмыслены в контексте мира, в котором мы живем вместе с цифровыми разумами", - сказал Бостром.

Понравилась публикация?
7 / 0
нет
0 / 0
Подписаться
Донаты ₽
Победители конкурса публикаций 9111.ru за сегодня Все
Автор: Николай Che🍒решнев.
Статья: Взрыв в машинном отделении: российское судно потерпело крушение в Средиземном море,
Заработано: 1500 ₽ в конкурсе
Автор: Валентина и Сын
Статья: Владикавказ, взрыв в ТЦ. Погибла женщина. Что случилось? Предварительная причина обозначена,
Заработано: 1300 ₽ в конкурсе
Автор: Валерий Ш
Статья: На свободу вышел убийца-расчленитель, которого надо было расстрелять ещё в СССР. Почему таких выпускают?,
Заработано: 1200 ₽ в конкурсе
Автор: Алена Осипова
Статья: Почему я работаю за низкую зарплату, но работу менять не хочу?,
Заработано: 1100 ₽ в конкурсе
Автор: Людмила
Статья: В Краснодарском крае введен краевой режим ЧС. Продолжение темы о безответственности чиновников,
Заработано: 1000 ₽ в конкурсе
Ежедневный призовой фонд - 14 000 рублей Хочу участвовать
Мария
Подписчиков 1060
12.06.2024, 20:30
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 4.4М
Сегодня речь пойдет о семьей моих близких друзей, которым пришлось на своей ...
Подробнее
Неинтересно
-1
32
Лопатин Денис Николаевич
Подписчиков 9840
20.12.2024, 13:19
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 4.8М
Предлагаю вашему вниманию несколько рекомендаций по формулированию существа ...
Подробнее
Неинтересно
0
195
Хакимова Эльвира
Подписчиков 17
15.12.2024, 17:20
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 50.1к
Здравствуйте! Планирую пойти учиться машинной вышивке и разработке дизайнов для вышивке. Подскажите,...
Подробнее
Неинтересно
0
3
Татьяна Дмитриевна
Подписчиков 26314
06.12.2024, 05:15
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 42М
На днях в Анголе проходил Трансафриканский саммит с лидерами стран Африки. На саммите ...
Подробнее
Неинтересно
00:30
Поделитесь этим видео
0
12
Юркин Вячеслав Иванович
Подписчиков 2884
11.11.2024, 14:45
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 5.8М
Евровидение. Начало.Ничто не предвещало беды.
Подробнее
Неинтересно
03:14
Поделитесь этим видео
0
1
Ульяна К
Подписчиков 4496
31.10.2024, 13:51
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг
Здравствуйте, подскажите кто знает в далеком 2012 году были молодые, работали на производстве,...
Подробнее
Неинтересно
0
3
Алиса
Подписчиков 161
31.10.2024, 06:12
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 634.4к
Замечаю, что здесь много статей, которые кажутся не совсем по теме права. Интересно, какие ...
Подробнее
Неинтересно
0
6
Лебедева Светлана Васильевна
Подписчиков 814
24.10.2024, 13:57
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 4.6М
Убитая горем мать 14-летнего подростка подала в суд на создателя чат-бота на основе ...
Подробнее
Неинтересно
0
9
Юрий
Подписчиков 161
24.10.2024, 00:29
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 30к
Бэтмэн короткометражный фильм технологии ИИ
Подробнее
Неинтересно
00:39
Поделитесь этим видео
0
0