Время на чтение 1 мин.
В ходе эксперимента люди и боты общались на политические темы. Исследование проходило в три раунда по четыре дня, для каждого из раундов использовалась своя ИИ-модель: GPT-4, Llama-2 или Claude 2. Нейросети представлялись 10 различными персонажами с различным бэкграундом и политическими взглядами. Боты комментировали события, приводя свой «личный» опыт.
Участники знали, что разговаривают как с людьми, так и с ботами. Но вне зависимости от используемой модели, реальные люди более чем в половине случаев не смогли отличить нейросеть от человека. Эксперимент вновь подтвердил, что с развитием ИИ резко возрастает риск распространения дезинформации и фейков в Сети.