Два года назад регуляторов мало интересовала безопасность хранения данных и внутрянка инфраструктуры. Главное — чтобы данные были защищены, а инфраструктура работала стабильно. В 2025 это уже вопрос суммы штрафа, а в 2026 вопрос отзыва лицензий.
Теперь от организаций требуют показать:
- какие данные использовались,
- как они были обработаны,
- какие правила или параметры сработали,
- где и как хранилась история решений.
Проблема в том, что большая часть AI-инструментов сегодня встроена как отдельные модули: они работают, но не фиксируют историю, не сохраняют параметры и не позволяют восстановить логику работы задним числом. Эти решения внедрялись быстро, ориентируясь на бизнес-результат, а не на будущие требования регулятора.
В 2026 году такая схема станет источником риска.
Особенно для среднего сегмента, где нет крупных внутренних команд и где многие процессы завязаны на подрядчиков. Работающая модель, которую невозможно объяснить, — это потенциальная блокировка, требование остановить использование или пересмотреть процесс.
Чтобы избежать этого, компаниям придётся заранее выстроить минимальный набор механик объяснимости:
- централизованный лог всех действий модели,
- контроль версий правил и параметров,
- прозрачность данных, на которых принимались решения,
- понятный аудит изменений.
Поэтому, чем раньше банки и страховые компании выстроят внутренние механизмы объяснимости, тем меньше шансов получить претензии от регулятора или столкнуться с ограничениями в работе.