Новый инструмент Совета Европы обеспечивает руководство и структурированный подход для проведения оценки рисков и воздействия систем искусственного интеллекта (ИИ). Методология HUDERIA специально разработана для защиты и продвижения прав человека, демократии и верховенства права. Она может использоваться как государственными, так и частными субъектами для выявления и устранения рисков и последствий для прав человека, демократии и верховенства права на протяжении всего жизненного цикла систем ИИ.
Методология предусматривает создание плана по снижению рисков для минимизации или устранения выявленных рисков, защищая общественность от потенциального вреда. Если окажется, что система ИИ, используемая, например, при приеме на работу, предвзято относится к определенным демографическим группам, план по снижению рисков может включать корректировку алгоритма или применение человеческого контроля.
Методология требует регулярной переоценки, чтобы убедиться, что система ИИ продолжает функционировать в соответствии с нормами безопасности и этики по мере развития контекста и технологий. Такой подход обеспечивает защиту населения от возникающих рисков на протяжении всего жизненного цикла системы искусственного интеллекта.
Методология HUDERIA была принята Комитетом Совета Европы по искусственному интеллекту на 12-м пленарном заседании, состоявшемся 26–28 ноября в Страсбурге. В 2025 году она будет дополнена моделью HUDERIA, которая предоставит вспомогательные материалы и ресурсы, включая гибкие инструменты и масштабируемые рекомендации.