Маркировка контента, созданного искусственным интеллектом, которую регуляторы по всему миру продвигают как главный инструмент борьбы с дезинформацией, не оправдывает возложенных надежд и может приводить к непредвиденным последствиям. К такому выводу пришли ученые из Национальных институтов здоровья США, опубликовавшие масштабное исследование в журнале PNAS Nexus. Эксперимент с участием более 1600 американцев показал: даже когда пользователи точно знают, что сообщение сгенерировано нейросетью, это никак не влияет на их готовность менять мнение под воздействием этого контента. Сдвиг в убеждениях составил в среднем 9,74 процентного пункта как в группе с маркировкой, так и без нее, при том что 92% участников полностью доверяли указанным пометкам об авторстве.