
Антикоррупционный потенциал искусственного интеллекта
Международный ресурсный центр по борьбе с коррупцией (Anti-Corruption Resource Centre, U4) представил новый рабочий доклад по вопросам использования технологии искусственного интеллекта (ИИ) в борьбе с коррупцией.
В фокусе внимания авторов не только традиционные сферы применения (выявление нарушений и управление рисками в госзакупках, оценка соответствия нормативным требованиям), но и новые перспективные области – работа с обращениями граждан, распознавание спутниковых изображений.
Использование ИИ «помогает превратить эпизодические выборочные проверки в комплексные системы мониторинга в режиме реального времени». Технология позволяет проанализировать широкий спектр неструктурированных данных в сжатые сроки (от сведений о неплатежеспособности до информации о политических контактах и комментариев в социальных сетях) и выявить сложные закономерности.
При этом эксперты U4 обращают внимание на несовершенность технологии. ИИ в значительной степени работает как «черный ящик»[1]. В числе основных рисков – непрозрачность и предвзятость алгоритмов принятия решений, склонность к созданию ложных фактов[2]. Например, цифровые системы, которые специализируются на юридических вопросах, в 30% случаев склонны ссылаться на несуществующие нормы. Технические ошибки в работе нейронных сетей привели к лишению граждан социальных пособий в Нидерландах, Сербии и США.
Проблемы правового регулирования и верификации входных данных подтверждают необходимость человеческого контроля при работе с ИИ. В качестве решений текущих проблем эксперты рекомендуют:
- Обеспечить равный доступ к цифровым технологиям[3]. Наличие данных о цифровом поведении различных групп населения повышает точность и объективность выводов и рекомендаций.
- Повысить открытость антикоррупционных проектов на базе ИИ. U4 предлагает рассмотреть опыт Армении по внедрению ИИ в рамках декларационных кампаний, а также практики Чехии по анализу финансовых потоков на основе открытых данных.
- Укреплять международное сотрудничество по созданию целевых наборов данных для обучения ИИ.
[1] Процессы принятия решений внутри моделей искусственного интеллекта на текущий момент не до конца понятны разработчикам и пользователям.
[2] Вопрос управления рисками ИИ стал центральным пунктом повестки международного саммита, который состоялся в Париже с 10 по 11 февраля 2025 г. Группа исследователей представила специализированный доклад об угрозах ИИ. Все риски разделены на три категории: риски злонамеренного использования (malicious use risks), риски из-за технических неисправностей (risks from malfunctions) и системные риски (systemic risks). Механизмы мониторинга и выявления уязвимостей программного обеспечения на базе ИИ находятся в стадии тестирования. Эксперты рекомендуют использовать различные подходы: от технического анализа самих моделей ИИ до оценки возможных рисков в конкретных ситуациях.
[3] По данным U4, лишь 22% специалистов в области ИИ – женщины.