
8 декабря 2023 года после более чем 36-часовых переговоров законодатели ЕС наконец достигли соглашения по Закону об искусственном интеллекте. Однако, несмотря на то, что некоторые основные права были защищены, в целом закон не оправдал своего потенциала, чтобы поставить людей и их права на первое место.
Сам по себе закон не является первым в мире: в августе в Китае вступили в силу новые правила для генеративного ИИ. Но закон ЕС об искусственном интеллекте является самым масштабным сводом правил для этой технологии.
Он включает в себя запрет на биометрические системы, идентифицирующие людей по таким чувствительным характеристикам, как сексуальная ориентация и раса, а также на беспорядочный поиск лиц в Интернете.
Законодатели также согласились с тем, что правоохранительные органы должны иметь возможность использовать системы биометрической идентификации в общественных местах для выявления определенных преступлений.
Также были включены новые требования прозрачности для всех моделей ИИ общего назначения, таких как GPT-4 от OpenAI, на котором работает лучшая нейросеть ChatGPT, и более строгие правила для "очень мощных" моделей.
За два года, в течение которых законодатели согласовывали принятые сегодня правила, технология искусственного интеллекта и основные опасения, связанные с ней, кардинально изменились.
Когда закон об искусственном интеллекте был задуман в апреле 2021 года, политиков беспокоили непрозрачные алгоритмы, решающие, кто получит работу, статус беженца или социальные льготы. К 2022 году появились примеры того, что ИИ активно вредит людям.

В скандале в Нидерландах решения, принимаемые алгоритмами, были связаны с насильственным разлучением семей с детьми, а студенты, обучающиеся дистанционно, утверждали, что системы ИИ дискриминируют их по цвету кожи.
Затем, в ноябре 2022 года, OpenAI выпустил ChatGPT, что резко изменило дискуссию. Скачок в гибкости и популярности ИИ вызвал тревогу у некоторых экспертов по ИИ, которые стали проводить гиперболические сравнения между ИИ и ядерным оружием.
Эта дискуссия проявилась на переговорах по закону об ИИ в Брюсселе в виде споров о том, следует ли считать создателей, так называемых фундаментальных моделей, таких как модель ChatGPT.
Например OpenAI и Google, корнем потенциальных проблем и регулировать их соответствующим образом, или же новые правила должны быть направлены на компании, использующие эти фундаментальные модели для создания новых приложений на базе ИИ, таких как чат-боты или генераторы изображений.
Представители европейской индустрии генеративного ИИ с осторожностью отнеслись к регулированию базовых моделей, заявив, что это может помешать инновациям среди стартапов ИИ в блоке.

На данный момент мы знаем, что сделка включает в себя:
• Запрет на публичное распознавание лиц в прямом эфире, но с несколькими исключениями для поиска определенных жертв, подозреваемых и для предотвращения террористических атак. Хотя эти условия более узкие, чем те, на которых настаивали страны-члены ЕС, они, тем не менее, открывают путь к использованию этих систем в опасных, дискриминационных и массовых формах наблюдения;
• Ограничение на публичное (ретроспективное) распознавание лиц только для поиска подозреваемых в совершении тяжких преступлений, хотя порог "тяжкого" преступления в настоящее время не определен;
• Частичный запрет на предиктивную полицейскую деятельность, включая прогнозирование вероятности совершения уголовного преступления на основе "черт или характеристик личности", но не на большинство систем предиктивной полицейской деятельности;
• Полный запрет на системы распознавания эмоций, но только на рабочих местах и в учебных заведениях. Это нелогично исключает наиболее вредные виды использования: в полиции, на границе и в миграционной сфере;
• Предполагаемый запрет на использование биометрических систем категоризации, хотя будет ли этот запрет значимым, пока неясно;
• Ограниченные правозащитные гарантии, включая обязательную оценку воздействия на фундаментальные права и определенный уровень прозрачности для общественности в отношении того, какие системы ИИ с высоким уровнем риска развернуты в Европе;
• Очень широкие лазейки в общем уровне защиты, включая широкую свободу действий для разработчиков ИИ, которые могут решить, что их системы не относятся к "высокорисковым", а также различные исключения из правил для правоохранительных органов, миграционных служб и органов национальной безопасности, которые развертывают "высокорисковые" ИИ. Это серьезная потеря для общественного надзора за наиболее опасными системами ИИ.
Компании, не соблюдающие правила, могут быть оштрафованы на сумму до 7 процентов от их глобального оборота. Запреты на запрещенный ИИ вступят в силу через шесть месяцев, требования к прозрачности - через 12 месяцев, а полный свод правил - примерно через два года.
Также были включены меры, призванные облегчить защиту владельцев авторских прав от генеративного ИИ и обязать системы ИИ общего назначения быть более прозрачными в отношении потребления энергии.
Ожидается, что закон вступит в силу в начале следующего года, когда обе стороны официально ратифицируют его, и будет применяться в течение двух лет после этого.
Правительства по всему миру пытаются найти баланс между преимуществами технологии, которая может вести диалог с человеком, отвечать на вопросы и писать компьютерный код, и необходимостью установить защитные ограждения.
Амбициозные европейские правила в области ИИ появляются на фоне того, что такие компании, как OpenAI, инвестором которой является Microsoft (MSFT.O), продолжают открывать новые области применения своих технологий, вызывая как одобрение, так и опасения. Владелец Google компания Alphabet (GOOGL.O) в четверг запустила новую модель искусственного интеллекта Gemini, чтобы конкурировать с OpenAI.
Закон ЕС может стать образцом для других правительств и альтернативой мягкому подходу Соединенных Штатов и временным правилам Китая.





