AI Act
Что меняется для AI-продуктов: уровни риска, ответственность разработчиков и новые правила игры.

В Европе с 2 августа 2026 года вступит в силу AI Act — это закон, который регулирует искусственный интеллект. Не рекомендации, а реальные правила с требованиями и штрафами.

Смысл простой: если вы применяете ИИ в продукте, который при его использовании оказывает влияние на людей, вы должны понимать, как он работает, и уметь это объяснить.
Фраза «так решила модель» больше не считается нормальным ответом.

1
Что именно регулируют?
Регулирование применения искусственного интеллекта делится по уровням риска.

Недопустимый риск — полностью запрещённые практики (социальное рейтингование, манипуляции сознанием, биометрическая категоризация, распознавание эмоций в школах и на работе).

Высокий риск — ИИ в критически важных областях (здравоохранение, транспорт, правосудие, трудоустройство) подлежит строгим требованиям: оценке рисков, качеству данных, документации, человеческому контролю и кибербезопасности.

Ограниченный риск — прозрачность при взаимодействии с пользователями (например, чат-боты, дипфейки).

Минимальный риск — большинство ИИ-приложений, не требующих дополнительных мер.

  • Если ИИ выполняет базовые вещи, типа сортировки фотографий — окей, живите спокойно.
  • Если работа связана с кредитами или документами — нужно соблюдать требования. В таком случае ИИ перестаёт быть чёрным ящиком.
2
Почему это касается вообще всех?
Важно понимать: европейский AI Act не имеет прямой юридической силы на территории России. Наши компании обязаны соблюдать российское законодательство в приоритете.

Но это не отменяет двух вещей.

Во-первых, если российская компания работает с клиентами из ЕС или выходит на европейский рынок, требования европейского регулирования начинают применяться к её деятельности в рамках этих отношений.

Во-вторых, регулирование ИИ — глобальный тренд. Россия уже регулирует ИИ, просто не одним большим законом, а через отраслевые нормы:

  • Есть закон о персональных данных (152-ФЗ) — ключевой документ. Он запрещает принимать решения, которые влияют на права человека, исключительно автоматически.

  • В финансовой сфере действует Кодекс этики ИИ Банка России — он рекомендательный, но задаёт стандарты прозрачности и управления рисками.

  • В медицине использование ИИ разрешено, но только при регистрации систем как медицинских изделий.

  • В образовании есть профильный ГОСТ с рекомендациями по применению ИИ.

  • В авторском праве действует общее правило: автором признаётся человек. Если произведение создано с помощью ИИ, права возможны только при наличии творческого вклада человека.
3
Что теперь станет проблемой?
Последние пару лет многие делали так: подключили LLM, написали промпт, сделали интерфейс — готов AI-продукт.

Работает? Работает. Красиво? Красиво.
Но когда спрашивают:
— Почему бот дал такой ответ?
— Как вы решаете проблему галлюцинаций?
— Что насчет тестирования?
Тут часто возникают казусы. AI Act как раз про это. Он не запрещает ИИ. Он запрещает его безответственное использование.

4
Что это меняет по сути?
Теперь важно не то, насколько крутая модель, а то, как построена совместная работа системы с ней.

  • Есть ли ограничения.
  • Есть ли логирование.
  • Есть ли тестирование.
  • Есть ли понимание, где зона риска.
Да, искусственный интеллект перестал быть магией. Теперь это настоящий инструмент инженера. Звучит скучно. Но для бизнеса это даже плюс.

Почему это, на самом деле, нормально?

На днях увидел кейс, в котором LLM научилась создавать почти идеальные подделки чеков, счетов и даже рецептов. Настолько аккуратно, что без оригинала рядом отличить сложно.
Когда нейросеть может за пару минут создать документ, который выглядит как настоящий финансовый отчет, например, это уже не просто игрушка для дизайнеров, а потенциальная проблема. Поэтому появился AI Act. Он не пытается «задушить технологии».

Закон ставит простой вопрос: если инструмент может влиять на деньги, документы или решения, кто за это отвечает?

Чем правдоподобнее становятся модели, тем меньше можно им доверять

Про то как наша команда регулирует работу искусственного интеллекта рассказали тут:



КОНТАКТЫ
+7 926 63 999 37 privet@slovo2050.ru
ООО СЛОВОСОФТ"
ИНН 9723226567