Директор Института информационной и медиабезопасности Университета имени О.Е. Кутафина (МГЮА) Владимир Никишин рассказал о пользе введения нормативной модели контроля использования искусственного интеллекта: «Сейчас российское законодательство крайне остро нуждается в построении нормативной модели, которая, с одной стороны, будет обеспечивать поддержку развития отечественного искусственного интеллекта для построения технологического суверенитета, а с другой стороны, будет обеспечивать когнитивный суверенитет, защиту граждан от нарушения их прав применением искусственного интеллекта, в том числе от сгенерированного манипулятивного контента, «кражи личности», совершения мошеннических действий».
Владимир Никишин подчеркнул, что полностью исключить возможность создания дипфейков с использованием уже имеющихся в сети фотографий невозможно: «Фотографии большинства граждан и так уже есть в сети. Поэтому далеко не всегда можно говорить вообще о возможности полной зачистки изображений человека в Интернете. На мой взгляд, стоит посмотреть на эту проблему более системно не с позиций отдельно взятого пользователя, а со стороны государства: какие правовые меры здесь необходимо включить».
Кроме того, Владимир Никишин отметил, что в российском законодательстве нет акта, регулирующего искусственный интеллект, поэтому следует изучить зарубежный опыт: «Например, в Китае введены правила маркировки сгенерированного контента и обязательные правила для тех, кто использует технологию распознавания лиц, с целью защиты персональных данных граждан».