ИИ vs Закон: Как не потерять команду, клиентов и бизнес

ИИ повышает эффективность, но может разрушить репутацию. Что делать, чтобы остаться на стороне закона и сотрудников в 2025 году?

ИИ уже здесь — а правила всё ещё неясны

Искусственный интеллект — это больше не эксперимент, а обыденность. Его внедряют в магазины, колл-центры, HR и логистику. Но вместе с ростом эффективности приходят и проблемы связанные с этикой, правом и социальной ответственностью.

Новостной интернет-портал Vatican News 28 января 2025 года опубликовал документ, в котором обсуждаются этические проблемы, связанные с ответственностью людей, принимающих решений на основе ИИ.

В Европе вступил в силу AI Act — самый жёсткий в мире регламент по ИИ. Он требует, чтобы любой ИИ-продукт можно было объяснить, протестировать и контролировать. Стартапы, не умеющие этого делать, рискуют просто исчезнуть с рынка.

А по данным сервиса Работа.ру из 350 опрошенных представителей бизнеса почти половина завила, что в будущем ИИ сможет полностью заменить часть специалистов.

ИИ уже прочно вошёл в бизнес-процессы, но правила его применения отстают от темпов внедрения. Пока в Европе вводятся чёткие регламенты, в России компании массово используют ИИ без должного внимания к этике и правовым рискам. Это создаёт потенциальную угрозу как для пользователей, так и для самих разработчиков, которые рискуют столкнуться с регуляторными барьерами в будущем.

Что происходит в России

Россия идёт своим путём: не запрещает, но осторожно регулирует.

  • Москва входит в экспериментальный правовой режим, позволяющий тестировать ИИ-решения без риска немедленных санкций. Компании освобождаются от ряда требований, пока продукт проходит апробацию, что снижает барьеры для инноваций, но требует особой ответственности.
  • По мере внедрения ИИ в X5 Retail Group к 2027 году планируется сократить до 20% сотрудников. Однако уже в 2024 году в профессиональной среде появились опасения: как именно ИИ влияет на графики, оценки и загрузку работников — и есть ли у них возможность повлиять на эти решения?
  • Альянс в сфере искусственного интеллекта опубликовал кодекс этики использования ИИ, подписантами которого являются многие крупные компании России. Но пока он носит лишь рекомендательный характер и распространяется на гражданские разработки.

Отсутствие системного подхода к оценке этических и дискриминирующих рисков при внедрении ИИ не является положительной тенденцией развития инновационных систем.

Как ИИ может отправить вас в суд или кризис

ИИ — это не просто алгоритм. Это юридическая и репутационная мина замедленного действия, особенно если вы:

  • Не сообщаете, что сотрудник или клиент взаимодействует с ИИ.
  • Не объясняете, как принимается то или иное решение.
  • Не даёте возможности его оспорить.

Кейс:

В 2024 году X5 Group внедрила в магазинах «Пятёрочка» систему прогнозирования загрузки персонала на основе ИИ. Система рассчитывает потребность в количестве сотрудников для каждого магазина, учитывая более 20 параметров. Однако в публичных источниках отсутствует информация о том, как именно алгоритмы принимают решения и как они влияют на рабочие графики сотрудников. Это вызывает вопросы о прозрачности и возможности оспаривания решений ИИ.

Контрпример:

В 2024 году компания «ПравоТех» и еще 7 организаций присоединилась к Национальному кодексу этики в сфере искусственного интеллекта, разработанному при поддержке Минэкономразвития РФ и Аналитического це��тра при Правительстве РФ. А в апреле 2025 года Альянс в сфере ИИ совместно с медицинским сообществом разработали и приняли Кодекс этики в сфере ИИ в медицине и здравоохранении. Это свидетельствует о стремлении компаний к соблюдению этических принципов при разработке и внедрении ИИ-технологий.

Интеллектуальные системы должны функционировать не изолированно от моральных принципов, а в рамках этики и уважительного отношения к человеку как личности. Прозрачность действий ИИ должна обеспечиваться на микроуровне, чтобы исключить любое дискриминирующее отношение к человеку и создать справедливую и безопасную среду.

7 вопросов для ИИ в вашем бизнесе

  1. Можно ли оспорить решение ИИ?
  2. Является ли алгоритм прозрачным?
  3. Проверялся ли он на дискриминацию?
  4. Есть ли логирование всех решений?
  5. Уведомлены ли пользователи о взаимодействии с ИИ?
  6. Назначен ли ответственный за этику ИИ?
  7. Проходил ли продукт стресс-тестирование?

Если ответ на 2 и более вопросов — «нет», у вас серьёзные риски.

Эффективность — но по правилам

ИИ реально даёт рост эффективности, но и имеет определенные риски:

1. Автоматизация труда.

Преимущества: снижение издержек, повышение производительности, ускорение операционной деятельности.

Ответственность: рост безработицы, цифровое неравенство, снижение социальной стабильности.

Меры предотвращения рисков: программы переквалификации, адаптивная кадровая политика, мотивация при препятствовании изменений.

2. Алгоритмическое принятие решений.

Преимущества: скорость обработки данных, оптимизация управленческих процессов, устранение проблем, связанных с человеческим фактором.

Ответственность: возможная дискриминация определенных групп общества, отсутствие прозрачности принятия решений.

Меры предотвращения рисков: высокий контроль со стороны человека, аудиты.

3. Высокий технологический темп развития.

Преимущества: быстрое внедрение новых технологий и адаптация существующих продуктов под новые задачи.

Ответственность: использование ИИ без нормативных ограничений, риски для прав человека.

Меры предотвращения рисков: актуализация законодательства, составление этических норм контроля ИИ, гибкие правовые регуляторы

Ответственность = конкурентное преимущество?

Ответственный подход к использованию ИИ - это не тормоз развития, а стратегическое преимущество. В данный момент нет крупных подтвержденных судебных дел в отношении ИИ при принятии решений, но в отношении генеративной модели в создании контента - достаточно. Пока рискам подвержены художники, писатели, музыканты, но когда ИИ станет частью бизнеса и займет высокую позицию в иерархии компании, список значительно пополнится.

Сотрудникам необходимо знать, что они работают в безопасной среде, клиенты должны доверять и не бояться алгоритмов, инвесторы - не бояться решений и действий ИИ.

Выводы

ИИ — это возможность. Но только у тех, кто научится управлять не только алгоритмами, но и доверием. Прозрачность, этика и человеческое лицо технологий — не абстракция, а конкурентное преимущество. Тот, кто выстраивает доверие, выигрывает рынок. Остальные — теряют даже то, что уже имеют.

Начать дискуссию