В законе системы ИИ разделены на группы по степеням риска, который они несут для европейских граждан и потребителей, и для каждой группы введены свои ограничения и меры контроля.
Совсем запрещены будут, например, системы, созданные для того, чтобы влиять на подсознание людей, а также системы биометрического распознавания, работающие в режиме реального времени.
Системы, создающие контент — такие, как ChatGPT — должны будут, в частности, четко маркировать свою продукцию и не выдавать ее за творчество живых людей.
“Депутаты Европарламента хотят гарантировать, чтобы системы ИИ контролировались людьми, были безопасны, прозрачны, отслеживаемы, не дискриминировали пользователей и способствовали защите окружающей среды”, — объясняла пресс-служба Европарламента в мае, по ходу подготовки законопроекта.
В дебатах, которые прошли 13 июня, депутаты Европарламента больше всего внимания обратили на пункты о системах распознавания лиц. В проекте предлагается разрешить применение таких систем только “постфактум” (а не в режиме реального времени), только для поиска преступников, террористов и пропавших людей и только по решению суда.
Уверенное большинство евродепутатов — за такое решение, но небольшое меньшинство призывает совсем запретить системы распознавания лиц.
От этого меньшинства в дебатах выступил, в частности, Патрик Брайер — единственный в Европарламенте представитель Пиратской партии Германии.
“Мы открываем ящик Пандоры, мы создаем тотальное полицейское государство, как в Китае”, — заявил Брайер (цитата по синхронному переводу).
Автор фото REUTERS
Левые, зеленые и “пираты” в Европарламенте говорят, что даже сильно ограниченное применение систем распознавания лиц с ИИ ведет к произволу спецслужб и попранию прав граждан, как в Китае
Немецкий “пират” заявил, что системы распознавания лиц ошибаются в 99% случаев, и это ведет к задержаниям невиновных людей.
“Требование о санкции суда, предложенное жесткими консерваторами — это чистая формальность, дымовая завеса для прикрытия массовой слежки [...] Нельзя делать нормой культуру недоверия и становиться на сторону авторитарных режимов, которые применяют ИИ для подавления гражданского общества”, - заявил Брайер перед дебатами.
Его многочисленные оппоненты возражали с трибуны Европарламента, что требовать полного запрета систем распознавания наивно, что они очень полезны в поиске террористов или, например, пропавших детей, и что сравнение с Китаем некорректно, поскольку в Европе правоохранительные органы и суды реально защищают права граждан.
Группы риска
В Законе об ИИ, который центральные европейские органы разрабатывали два года — и недавно внесли новые правки в связи с появлением феномена ChatGPT-4 — системы искусственного интеллекта разделены на четыре группы: группа “неприемлемого риска”, группа “высокого риска”, “генерирующие” системы и группа “ограниченного риска”.
В группу “неприемлемого риска” зачислены:
системы, созданные для воздействия на подсознание людей
системы социального рейтинга, разделяющего людей на категории по их поведению, социально-экономическому положению и прочим личным характеристикам
системы распознавания в режиме реального времени
Все они будут в Европе запрещены, исключение сделано для использования систем распознавания правоохранительными органами постфактум и с разрешения суда.
В группу “высокого риска” попали
системы, применяющиеся в товарах и услугах, которые в ЕС попадают под лицензирование в рамках защиты потребителей. Это, например, игрушки, автомобили, авиация, медицинская аппаратура
системы управления критически важной инфраструктурой
системы, применяемые в образовательных учреждениях или в работе с персоналом фирм и учреждений
системы, применяемые в правоохранительных органах, работе с мигрантами и беженцами и в охране границ
Все эти системы ИИ будут оцениваться до их внедрения и по ходу применения и регистрироваться в специальной базе данных ЕС.
Владельцы систем, генерирующих контент, таких как ChatGPT, должны будут
помечать созданный ими контент
программировать их так, чтобы они не создавали противозаконный контент
обнародовать списки данных, которые защищены авторским правом и на которых обучалась система
Все прочие системы ИИ включены в группу “низкого риска”, от них требуется лишь быть достаточно открытыми — чтобы пользователь знал, что имеет дело с ИИ, и имел достаточно информации, чтобы принять обоснованное решение, пользоваться ли им дальше.
Что скажете, Аноним?
[07:00 23 ноября]
[19:13 22 ноября]
13:00 23 ноября
12:30 23 ноября
11:00 23 ноября
10:30 23 ноября
10:00 23 ноября
09:00 23 ноября
[16:20 05 ноября]
[18:40 27 октября]
[18:45 27 сентября]
(c) Укррудпром — новости металлургии: цветная металлургия, черная металлургия, металлургия Украины
При цитировании и использовании материалов ссылка на www.ukrrudprom.ua обязательна. Перепечатка, копирование или воспроизведение информации, содержащей ссылку на агентства "Iнтерфакс-Україна", "Українськi Новини" в каком-либо виде строго запрещены
Сделано в miavia estudia.