Похоже, что против OpenAI впервые подали иск о защите чести и достоинства. Это произошло в ответ на фейковую информацию, сгенерированную нейросетью ChatGPT.
Что случилось?
Журналист по имени Фред Рил попросил ChatGPT сделать подборку реальных дел, рассматривавшихся в федеральном суде США, сославшись на PDF-файл. Нейросеть создала подробное и убедительное резюме, однако снабдила его фейковыми подробностями. В частности, она написала, что некий Марк Уолтерс присвоил более 5 миллионов долларов, пожертвованных некоммерческой организации по защите прав на оружие «Фонд второй поправки». Никакого Уолтерса в таком никогда не обвиняли.
Кто подал иск?
Радиоведущий из Джорджии Марк Уолтерс подал иск о защите чести и достоинства в Верховный суд округа Гвиннетт штата Джорджия. Он требует от OpenAI денежной компенсации, но сумму не указал. Неизвестно, как Марк Уолтерс узнал об этом, — Фред Рил не публиковал информацию в открытых источниках, но обсуждал и проверял ее с некой третьей стороной. Примечательно, что ChatGPT не может самостоятельно работать с файлами PDF, для этого нужны сторонние плагины. Рил утверждает, что нейросеть об этом не предупреждала.
ChatGPT может выдумывать факты?
Да, фактчекинг ей недоступен. Адвокат из Нью-Йорка Стивен Шварц может поплатиться лицензией за использование нейросети. Он составлял с помощью ИИ подборку судебных прецедентов, однако ChatGPT выдумала не менее шести фактов. Это вскрылось, и в отношении Шварца идет дисциплинарное расследование.
Хотя CEO OpenAI Сэм Альтман утверждает, что предпочитает получать новую информацию из ChatGPT, а не из книг, на домашней странице нейросети есть маленькое предупреждение о том, что ИИ может иногда генерировать неверные факты.
OpenAI действительно можно привлечь?
Непонятно. Судя по всему, подобных прецедентов в юридической практике нет. Раздел 230 — принятое в 1996 году положение федерального закона — защищает интернет-компании от ответственности за информацию, созданную и размещенную на их платформах третьими лицами. Но применимо ли это к ИИ, непонятно.
Профессор права Юджин Волох, изучающий юридическую ответственность ИИ, полагает, что подобные иски в принципе обоснованны, но это дело может быть сложным для рассмотрения. Юрист отмечает, что OpenAI удалила ложные результаты, а таже то, что никакого реального вреда случившееся не причинило.
Изображение сгенерировано нейросетью Kandinsky.