Постоянный адрес: http://ukrrudprom.com/digest/II_i_zakon_CHto_ne_tak_s_zakonoproektom_ES_ob_iskusstvennom_intellekte.html?print

ИИ и закон. Что не так с законопроектом ЕС об искусственном интеллекте

thebell, 19 мая 2023. Опубликовано 08:15 21 мая 2023 года
Власти Евросоюза опубликовали законопроект о регулировании искусственного интеллекта (AI Act). Это первый в мире всеобъемлющий документ такого рода, вызвавший настоящий вал критики.

The Bell разобрался, насколько она обоснованна.

Что в проекте

Документ, обнародованный на минувшей неделе, — это черновик AI Act, разработанный в Европарламенте. Он основан на общей концепции регулирования ИИ, опубликованной Еврокомиссией еще в прошлом году, но сильно изменен и дополнен. В результате получился типичный продукт европейского рамочного законотворчества на 150 страниц, призванный “обеспечить развитие ИИ в Европе в соответствии с принципами этики и главенства интересов человека и дать отрасли новые ориентиры прозрачности и риск-менеджмента”.

По мнению изучившей документ консалтинговой компании Deloitte, главное в нем следующее:

Почему такой скандал?

Чтобы понять, насколько накалена дискуссия вокруг законопроекта, достаточно зайти на профильный Reddit. “Смехотворно неприменимо, и в целом выбрасывает ЕС из гонки искусственных интеллектов, — пишет один из пользователей. — Крупные игроки попросту заблокируют их по IP, и производительность в экономике ЕС рухнет по сравнению с остальным миром”. “Даже если вы считаете, что жесткое регулирование — это правильно, задумайтесь, будут ли соблюдать правила ЕС такие страны, как Россия, Китай или Северная Корея”, — призывает другой. “Уход разработчиков ИИ из ЕС? Вполне возможно. Весь ВВП Европы не сравнится с прибылью от ИИ-гонки”, — замечает третий.

Частично это заслуга экономиста Тайлера Коуэна, продвинувшего достаточно спорный текст о законопроекте, написанный с позиций сторонников минимального контроля за ИИ. По мнению авторов, AI Act запретит компаниям уровня OpenAI, Amazon и Google предоставлять доступ к своему ИИ через механизм встройки API, а открытым депозитариям — таким, как GitHub — распространять модели ИИ с открытым исходным кодом. Частичное же обучение готовых моделей (LoRA) потребует сертификации.

Что не так с этим текстом, разобрал в своем блоге разработчик, теоретик и автор учебников по генеративным ИИ Балдур Бьярнасон. Он указывает, что по сути прописанные ЕС ограничения разумны и на самом деле касаются почти исключительно разработчиков моделей, а не компаний, их использующих, и не распространителей типа GitHub. “AI Act запрещает в основном то, что нельзя было разрешать в принципе, — пишет Бьярнасон. — Но если вы возьмете модель, настроите ее под узкую функцию и развернете как часть своего программного пакета, вам ничто не грозит, если разработчик модели соблюдал требования”.

Вопросы вызывают крупные оборотные штрафы за нарушения — до 4% суммарной выручки компании, и предположение, что “узкий” ИИ всегда безопаснее универсального. Но считать закон экзистенциальной угрозой опенсорсу в ИИ и поводом для конфликта ЕС с разработчиками из США было бы преждевременно. “Именно OpenAI, Microsoft и Google сдерживают развитие отрасли своей непрозрачностью и склонностью к необоснованным рискам”, — считает ученый.

Сергей СМИРНОВ