ИИ vs Закон: Как не потерять команду, клиентов и бизнес
ИИ повышает эффективность, но может разрушить репутацию. Что делать, чтобы остаться на стороне закона и сотрудников в 2025 году?
ИИ уже здесь — а правила всё ещё неясны
Искусственный интеллект — это больше не эксперимент, а обыденность. Его внедряют в магазины, колл-центры, HR и логистику. Но вместе с ростом эффективности приходят и проблемы связанные с этикой, правом и социальной ответственностью.
Новостной интернет-портал Vatican News 28 января 2025 года опубликовал документ, в котором обсуждаются этические проблемы, связанные с ответственностью людей, принимающих решений на основе ИИ.
В Европе вступил в силу AI Act — самый жёсткий в мире регламент по ИИ. Он требует, чтобы любой ИИ-продукт можно было объяснить, протестировать и контролировать. Стартапы, не умеющие этого делать, рискуют просто исчезнуть с рынка.
А по данным сервиса Работа.ру из 350 опрошенных представителей бизнеса почти половина завила, что в будущем ИИ сможет полностью заменить часть специалистов.
ИИ уже прочно вошёл в бизнес-процессы, но правила его применения отстают от темпов внедрения. Пока в Европе вводятся чёткие регламенты, в России компании массово используют ИИ без должного внимания к этике и правовым рискам. Это создаёт потенциальную угрозу как для пользователей, так и для самих разработчиков, которые рискуют столкнуться с регуляторными барьерами в будущем.
Что происходит в России
Россия идёт своим путём: не запрещает, но осторожно регулирует.
- Москва входит в экспериментальный правовой режим, позволяющий тестировать ИИ-решения без риска немедленных санкций. Компании освобождаются от ряда требований, пока продукт проходит апробацию, что снижает барьеры для инноваций, но требует особой ответственности.
- По мере внедрения ИИ в X5 Retail Group к 2027 году планируется сократить до 20% сотрудников. Однако уже в 2024 году в профессиональной среде появились опасения: как именно ИИ влияет на графики, оценки и загрузку работников — и есть ли у них возможность повлиять на эти решения?
- Альянс в сфере искусственного интеллекта опубликовал кодекс этики использования ИИ, подписантами которого являются многие крупные компании России. Но пока он носит лишь рекомендательный характер и распространяется на гражданские разработки.
Отсутствие системного подхода к оценке этических и дискриминирующих рисков при внедрении ИИ не является положительной тенденцией развития инновационных систем.
Как ИИ может отправить вас в суд или кризис
ИИ — это не просто алгоритм. Это юридическая и репутационная мина замедленного действия, особенно если вы:
- Не сообщаете, что сотрудник или клиент взаимодействует с ИИ.
- Не объясняете, как принимается то или иное решение.
- Не даёте возможности его оспорить.
Кейс:
В 2024 году X5 Group внедрила в магазинах «Пятёрочка» систему прогнозирования загрузки персонала на основе ИИ. Система рассчитывает потребность в количестве сотрудников для каждого магазина, учитывая более 20 параметров. Однако в публичных источниках отсутствует информация о том, как именно алгоритмы принимают решения и как они влияют на рабочие графики сотрудников. Это вызывает вопросы о прозрачности и возможности оспаривания решений ИИ.
Контрпример:
В 2024 году компания «ПравоТех» и еще 7 организаций присоединилась к Национальному кодексу этики в сфере искусственного интеллекта, разработанному при поддержке Минэкономразвития РФ и Аналитического це��тра при Правительстве РФ. А в апреле 2025 года Альянс в сфере ИИ совместно с медицинским сообществом разработали и приняли Кодекс этики в сфере ИИ в медицине и здравоохранении. Это свидетельствует о стремлении компаний к соблюдению этических принципов при разработке и внедрении ИИ-технологий.
Интеллектуальные системы должны функционировать не изолированно от моральных принципов, а в рамках этики и уважительного отношения к человеку как личности. Прозрачность действий ИИ должна обеспечиваться на микроуровне, чтобы исключить любое дискриминирующее отношение к человеку и создать справедливую и безопасную среду.
7 вопросов для ИИ в вашем бизнесе
- Можно ли оспорить решение ИИ?
- Является ли алгоритм прозрачным?
- Проверялся ли он на дискриминацию?
- Есть ли логирование всех решений?
- Уведомлены ли пользователи о взаимодействии с ИИ?
- Назначен ли ответственный за этику ИИ?
- Проходил ли продукт стресс-тестирование?
Если ответ на 2 и более вопросов — «нет», у вас серьёзные риски.
Эффективность — но по правилам
ИИ реально даёт рост эффективности, но и имеет определенные риски:
1. Автоматизация труда.
Преимущества: снижение издержек, повышение производительности, ускорение операционной деятельности.
Ответственность: рост безработицы, цифровое неравенство, снижение социальной стабильности.
Меры предотвращения рисков: программы переквалификации, адаптивная кадровая политика, мотивация при препятствовании изменений.
2. Алгоритмическое принятие решений.
Преимущества: скорость обработки данных, оптимизация управленческих процессов, устранение проблем, связанных с человеческим фактором.
Ответственность: возможная дискриминация определенных групп общества, отсутствие прозрачности принятия решений.
Меры предотвращения рисков: высокий контроль со стороны человека, аудиты.
3. Высокий технологический темп развития.
Преимущества: быстрое внедрение новых технологий и адаптация существующих продуктов под новые задачи.
Ответственность: использование ИИ без нормативных ограничений, риски для прав человека.
Меры предотвращения рисков: актуализация законодательства, составление этических норм контроля ИИ, гибкие правовые регуляторы
Ответственность = конкурентное преимущество?
Ответственный подход к использованию ИИ - это не тормоз развития, а стратегическое преимущество. В данный момент нет крупных подтвержденных судебных дел в отношении ИИ при принятии решений, но в отношении генеративной модели в создании контента - достаточно. Пока рискам подвержены художники, писатели, музыканты, но когда ИИ станет частью бизнеса и займет высокую позицию в иерархии компании, список значительно пополнится.
Сотрудникам необходимо знать, что они работают в безопасной среде, клиенты должны доверять и не бояться алгоритмов, инвесторы - не бояться решений и действий ИИ.
Выводы
ИИ — это возможность. Но только у тех, кто научится управлять не только алгоритмами, но и доверием. Прозрачность, этика и человеческое лицо технологий — не абстракция, а конкурентное преимущество. Тот, кто выстраивает доверие, выигрывает рынок. Остальные — теряют даже то, что уже имеют.