ЕС призвали защищать массовые исследования ИИ, иначе они рискуют проиграть США
ЕС предупредили, что он рискует передать контроль над искусственным интеллектом американским технологическим фирмам, если не примет меры для защиты массовых исследований в своем готовящемся законопроекте об искусственном интеллекте.
В открытом письме, координируемом немецкой исследовательской группой Laion, или Крупномасштабной открытой сетью ИИ, Европейскому парламенту было сказано, что правила «один размер подходит всем» рискуют ликвидировать открытые исследования и разработки.
«Правила, требующие от исследователя или разработчика мониторинга или контроля последующего использования, могут сделать невозможным выпуск ИИ с открытым исходным кодом в Европе», что «укрепит положение крупных фирм» и «затруднит усилия по повышению прозрачности, снижению конкуренции, ограничению академической свободы, и стимулировать инвестиции в ИИ за рубежом», — говорится в письме.
В нем добавляется: «Европа не может позволить себе потерять суверенитет ИИ. Устранение исследований и разработок с открытым исходным кодом оставит европейское научное сообщество и экономику в критической зависимости от нескольких иностранных и частных фирм в отношении необходимой инфраструктуры искусственного интеллекта».
Крупнейшие разработки в области искусственного интеллекта, предпринимаемые такими компаниями, как OpenAI и Google, сильно контролируются их создателями. Например, невозможно загрузить модель ChatGPT, а платный доступ, который OpenAI предоставляет клиентам, имеет ряд ограничений, юридических и технических, на то, как его можно использовать. Напротив, усилия по разработке искусственного интеллекта с открытым исходным кодом включают создание модели искусственного интеллекта, а затем выпуск ее для всех, кто может использовать, улучшать или адаптировать ее по своему усмотрению.
«Мы работаем над ИИ с открытым исходным кодом, потому что считаем, что такой ИИ будет более безопасным, более доступным и более демократичным», — сказал Кристоф Шуманн, руководитель Laion.
В отличие от своих коллег по бизнесу в области искусственного интеллекта в США, которые контролируют организации с оборотом в миллиарды долларов и часто имеют личное состояние, исчисляемое сотнями миллионов, Шуман является добровольцем в мире искусственного интеллекта. «Я штатный учитель информатики в старшей школе, и я делаю все бесплатно в качестве хобби, потому что я убежден, что в ближайшие пять-десять лет у нас будет искусственный интеллект, близкий к человеческому». он сказал.
«Эта технология — цифровая сверхдержава, которая полностью изменит мир, и я хочу, чтобы мои дети росли в мире, где эта сила демократизирована».
Работа Лайона уже оказала влияние. Группа, получившая финансирование от британского стартапа Stability AI, занимается созданием открытых наборов данных и моделей, на которых другие исследователи ИИ могут обучать свои собственные системы. Одна база данных, содержащая почти 6 миллиардов помеченных изображений, собранных из Интернета, лежит в основе популярного ИИ, генерирующего изображения Stable Diffusion, а другая модель, называемая Openclip, представляет собой воссоздание частной системы, созданной OpenAI, которую можно использовать для маркировки изображений.
Такая работа может оказаться спорной. Стабильная диффузия, например, может использоваться для создания явных, непристойных и тревожных изображений, в то время как база данных изображений Laoin подвергается критике за несоблюдение прав создателей, чья работа включена. Именно эта критика побудила такие органы, как ЕС, рассмотреть вопрос о том, чтобы возложить на компании ответственность за то, что делают их системы ИИ, но такое регулирование сделает невозможным выпуск систем для широкой публики, что, по словам Шуманна, разрушит способность континента конкурировать.
Вместо этого он утверждает, что ЕС должен активно поддерживать исследования с открытым исходным кодом на своих собственных государственных объектах, чтобы «ускорить безопасную разработку моделей следующего поколения в контролируемых условиях под общественным контролем и в соответствии с европейскими ценностями». Другие группы, такие как Институт Тони Блэра, призвали Великобританию сделать то же самое и профинансировать создание «BritGPT», чтобы поставить будущий ИИ под общественный контроль.
Шуманн и его соратники являются частью растущего хора экспертов по ИИ, которые отвечают на призывы замедлить разработку. На конференции во Флоренции, посвященной будущему ЕС, многие выстроились в очередь, чтобы осудить недавнее письмо, подписанное Илоном Маском и другими, призывающее приостановить создание гигантских ИИ как минимум на шесть месяцев.
Сандра Вахтер, профессор Оксфордского интернет-института Оксфордского университета, сказала: «Шумиха вокруг больших языковых моделей, шум оглушительный. Давайте сосредоточимся на том, кто кричит, кто обещает, что эта технология будет такой прорывной: люди, у которых есть личная финансовая заинтересованность в том, что это будет успешным. Так что не отделяйте сообщение от говорящего».
Она рассказала аудитории на мероприятии State of the Union Института Европейского университета, что мир уже видел этот цикл ажиотажа и страха раньше с сетью, криптовалютой и беспилотными автомобилями. «Каждый раз, когда мы видим, что происходит что-то подобное, мы говорим: «Боже мой, мир уже никогда не будет прежним».
Она призвала не торопиться в регулировании, предупредив, что «тоска и паника не являются хорошим политическим советником», и сказала, что основное внимание следует уделять разговорам с людьми в области здравоохранения, финансов и образования об их мнениях.