ЛОНДОН, 10 октября - Глобальные финансовые регуляторы представили планы по усилению надзора за рисками, связанными с использованием искусственного интеллекта в банках и финансовом секторе. Власти обеспокоены тем, что многие учреждения используют одни и те же модели ИИ и специализированное оборудование, что может привести к массовому однообразию. Такое сильное полагание на ИИ может создать уязвимости в случае отсутствия альтернатив, отмечает отчет Совета по финансовой стабильности, органа, связанного с G20. Отдельное исследование от Банка международных расчетов подчеркивает необходимость для центробанков и финансовых регуляторов повысить качество контроля и использования новых технологий. В документе также отмечается, что растущее внедрение ИИ в процессы кредитования, управления рисками и алгоритмической торговли требует создания более прозрачных и подотчетных систем. Регуляторы призывают финансовые учреждения разрабатывать механизмы «объяснимого ИИ», чтобы можно было понимать и проверять решения, принимаемые алгоритмами, особенно в случаях, затрагивающих клиентов и финансовую стабильность. Совет по финансовой стабильности предложил усилить международное сотрудничество между надзорными органами для обмена данными и лучшими практиками по управлению рисками ИИ. Среди предложений — создание единых стандартов оценки надежности и устойчивости алгоритмов, а также проведение стресс-тестов для систем, основанных на машинном обучении. Кроме того, в отчете подчеркивается необходимость диверсификации поставщиков и моделей, чтобы избежать чрезмерной зависимости от ограниченного круга технологических компаний. По мнению экспертов, такой подход поможет снизить вероятность системных сбоев и повысить устойчивость финансового сектора к технологическим рискам. Регуляторы ожидают, что новые рекомендации будут обсуждаться на предстоящей встрече министров финансов и глав центробанков стран G20, где планируется выработать единый подход к надзору за искусственным интеллектом в финансовой сфере.
Пока нет комментариев к этому посту.