Rambler's Top100
ДАЙДЖЕСТ

ИИ и закон. Что не так с законопроектом ЕС об искусственном интеллекте

[08:15 21 мая 2023 года ] [ thebell, 19 мая 2023 ]

Власти Евросоюза опубликовали законопроект о регулировании искусственного интеллекта (AI Act). Это первый в мире всеобъемлющий документ такого рода, вызвавший настоящий вал критики.

The Bell разобрался, насколько она обоснованна.

Что в проекте

Документ, обнародованный на минувшей неделе, — это черновик AI Act, разработанный в Европарламенте. Он основан на общей концепции регулирования ИИ, опубликованной Еврокомиссией еще в прошлом году, но сильно изменен и дополнен. В результате получился типичный продукт европейского рамочного законотворчества на 150 страниц, призванный “обеспечить развитие ИИ в Европе в соответствии с принципами этики и главенства интересов человека и дать отрасли новые ориентиры прозрачности и риск-менеджмента”.

По мнению изучившей документ консалтинговой компании Deloitte, главное в нем следующее:

  • AI Act может стать редким для ЕС экстерриториальным законом, применимым ко всем создателям и пользователям ИИ. Уже сейчас под него подпадали бы американские OpenAI с ее ChatGPT и Google с Bard.

  • Жесткость регулирования зависит от степени опасности ИИ. Прямо запрещены “неприемлемые” формы ИИ, например системы дистанционной биометрии в общественных местах, “предиктивная охрана правопорядка” на основе криминального профиля и локации человека, распознавание эмоций и обучение систем распознавания лиц на не предназначенных для этого сырых данных (соцсети, системы видеонаблюдения).

  • Для компонентов ИИ высокого риска (под который попадают универсальные модели ИИ типа GPT-4, применяющиеся в областях типа медицины и управления транспортными средствами) предусмотрено жесткое регулирование. Их создателям придется исчерпывающим образом доказывать качество сетов, использованных для обучения моделей, а также извещать об использовании в них данных, подпадающих под защиту авторского права. Модели ИИ придется сертифицировать до выхода на рынок и обеспечивать мониторинг их применения после. При проявлении у ИИ новых свойств, в том числе в результате действий третьих сторон, потребуется повторная сертификация.

  • К ИИ малой степени риска отнесены специализированные реализации моделей ИИ, в особенности те, выход которых “имеет незначительное или подчиненное влияние на решения и действия человека”. Для них регулирование сравнительно мягкое.

  • Deloitte обращает внимание, что AI Act прямо упоминает только два чисто финансовых применения ИИ — в моделях кредитных рейтингов и оценки страховых рисков. Но скорее всего их отнесут к высокому уровню риска, поскольку они определяют степень доступа “носителей естественного интеллекта” к финансовым ресурсам. Кроме того, хотя документ очень важен, это все-таки очень предварительная версия.

Почему такой скандал?

Чтобы понять, насколько накалена дискуссия вокруг законопроекта, достаточно зайти на профильный Reddit. “Смехотворно неприменимо, и в целом выбрасывает ЕС из гонки искусственных интеллектов, — пишет один из пользователей. — Крупные игроки попросту заблокируют их по IP, и производительность в экономике ЕС рухнет по сравнению с остальным миром”. “Даже если вы считаете, что жесткое регулирование — это правильно, задумайтесь, будут ли соблюдать правила ЕС такие страны, как Россия, Китай или Северная Корея”, — призывает другой. “Уход разработчиков ИИ из ЕС? Вполне возможно. Весь ВВП Европы не сравнится с прибылью от ИИ-гонки”, — замечает третий.

Частично это заслуга экономиста Тайлера Коуэна, продвинувшего достаточно спорный текст о законопроекте, написанный с позиций сторонников минимального контроля за ИИ. По мнению авторов, AI Act запретит компаниям уровня OpenAI, Amazon и Google предоставлять доступ к своему ИИ через механизм встройки API, а открытым депозитариям — таким, как GitHub — распространять модели ИИ с открытым исходным кодом. Частичное же обучение готовых моделей (LoRA) потребует сертификации.

Что не так с этим текстом, разобрал в своем блоге разработчик, теоретик и автор учебников по генеративным ИИ Балдур Бьярнасон. Он указывает, что по сути прописанные ЕС ограничения разумны и на самом деле касаются почти исключительно разработчиков моделей, а не компаний, их использующих, и не распространителей типа GitHub. “AI Act запрещает в основном то, что нельзя было разрешать в принципе, — пишет Бьярнасон. — Но если вы возьмете модель, настроите ее под узкую функцию и развернете как часть своего программного пакета, вам ничто не грозит, если разработчик модели соблюдал требования”.

Вопросы вызывают крупные оборотные штрафы за нарушения — до 4% суммарной выручки компании, и предположение, что “узкий” ИИ всегда безопаснее универсального. Но считать закон экзистенциальной угрозой опенсорсу в ИИ и поводом для конфликта ЕС с разработчиками из США было бы преждевременно. “Именно OpenAI, Microsoft и Google сдерживают развитие отрасли своей непрозрачностью и склонностью к необоснованным рискам”, — считает ученый.

Сергей СМИРНОВ

 

 

 

Добавить в FacebookДобавить в TwitterДобавить в LivejournalДобавить в Linkedin

Что скажете, Аноним?

Если Вы зарегистрированный пользователь и хотите участвовать в дискуссии — введите
свой логин (email) , пароль  и нажмите .

Если Вы еще не зарегистрировались, зайдите на страницу регистрации.

Код состоит из цифр и латинских букв, изображенных на картинке. Для перезагрузки кода кликните на картинке.

ДАЙДЖЕСТ
НОВОСТИ
АНАЛИТИКА
ПАРТНЁРЫ
pекламные ссылки

miavia estudia

(c) Укррудпром — новости металлургии: цветная металлургия, черная металлургия, металлургия Украины

При цитировании и использовании материалов ссылка на www.ukrrudprom.ua обязательна. Перепечатка, копирование или воспроизведение информации, содержащей ссылку на агентства "Iнтерфакс-Україна", "Українськi Новини" в каком-либо виде строго запрещены

Сделано в miavia estudia.