В опросе исследователей из HarrisX более чем 1 тыс. взрослых были показаны четыре видео, созданных нейросетью Sora, и четыре видео из стоков, снятых людьми. Как сообщает Variety, в 5 случаях из 8 люди ошибочно определили, как был создан ролик.
Хотя Sora еще недоступна простым пользователям, нейросеть от OpenAI вызвала серьезные опасения, особенно в индустрии развлечений, для которой быстрое развитие подобных технологий имеет значительные последствия (хотя Sora, вероятно, будет иметь довольно ограниченный функционал на момент запуска). Кроме того, создание видео посредством ИИ вызывает более широкие вопросы о его потенциале в создании дипфейков.
Когда вы пытаетесь быстро изменить мир, мир быстро реагирует, чтобы держать вас в предсказуемых рамках. Именно это мы и видим с генеративным ИИ: по мере того как его сложность увеличивается с помощью новых инструментов вроде Sora, также растут опасения относительно его воздействия и призывы к правильной маркировке и регулированию технологии. Молодой отрасли необходимо сделать больше для создания ограничений и для адекватного общения с широкой общественностью.
Дритан Нешо, генеральный директор и руководитель исследований в HarrisX