Инициаторы проекта хотят применить к основным моделям ИИ такие требования, как повышенная проверка безопасности, управление данными и меры по снижению рисков, проверка их на предмет нарушения закона об авторском праве, проверка пригодности источников данных.
Подобный акт ранее разработали в Китае: он представляет собой свод правил, предназначенных для управления деятельностью ИИ, в частности ChatGPT. При этом документ предусматривает рискориентированный подход к регулированию нейросетей. Так, акт делит приложения на базе ИИ на четыре категории: неприемлемый риск, высокий риск, ограниченный риск и минимальный риск или его отсутствие. К первой группе относятся такие приложения, которые по умолчанию запрещены. Эти системы используют подсознательные, манипулятивные или вводящие в заблуждение методы для искажения поведения отдельных людей или групп.