Вторник, 16 апреля, 2024

16+

Пользователи соцсетей плохо отличают людей от ботов

Время на чтение 1 мин.

В ходе эксперимента люди и боты общались на политические темы. Исследование проходило в три раунда по четыре дня, для каждого из раундов использовалась своя ИИ-модель: GPT-4, Llama-2 или Claude 2. Нейросети представлялись 10 различными персонажами с различным бэкграундом и политическими взглядами. Боты комментировали события, приводя свой «личный» опыт.

Участники знали, что разговаривают как с людьми, так и с ботами. Но вне зависимости от используемой модели, реальные люди более чем в половине случаев не смогли отличить нейросеть от человека. Эксперимент вновь подтвердил, что с развитием ИИ резко возрастает риск распространения дезинформации и фейков в Сети.

Свежие новости

spot_img

Оставьте ответ

Пожалуйста, введите свой комментарий!
Пожалуйста, введите ваше имя здесь