Суббота, 14 сентября, 2024

16+

На OpenAI подали в суд

Время на чтение 2 мин.

Похоже, что против OpenAI впервые подали иск о защите чести и достоинства. Это произошло в ответ на фейковую информацию, сгенерированную нейросетью ChatGPT.

Что случилось?

Журналист по имени Фред Рил попросил ChatGPT сделать подборку реальных дел, рассматривавшихся в федеральном суде США, сославшись на PDF-файл. Нейросеть создала подробное и убедительное резюме, однако снабдила его фейковыми подробностями. В частности, она написала, что некий Марк Уолтерс присвоил более 5 миллионов долларов, пожертвованных некоммерческой организации по защите прав на оружие «Фонд второй поправки». Никакого Уолтерса в таком никогда не обвиняли.

Кто подал иск?

Радиоведущий из Джорджии Марк Уолтерс подал иск о защите чести и достоинства в Верховный суд округа Гвиннетт штата Джорджия. Он требует от OpenAI денежной компенсации, но сумму не указал. Неизвестно, как Марк Уолтерс узнал об этом, — Фред Рил не публиковал информацию в открытых источниках, но обсуждал и проверял ее с некой третьей стороной. Примечательно, что ChatGPT не может самостоятельно работать с файлами PDF, для этого нужны сторонние плагины. Рил утверждает, что нейросеть об этом не предупреждала.

ChatGPT может выдумывать факты?

Да, фактчекинг ей недоступен. Адвокат из Нью-Йорка Стивен Шварц может поплатиться лицензией за использование нейросети. Он составлял с помощью ИИ подборку судебных прецедентов, однако ChatGPT выдумала не менее шести фактов. Это вскрылось, и в отношении Шварца идет дисциплинарное расследование.

Хотя CEO OpenAI Сэм Альтман утверждает, что предпочитает получать новую информацию из ChatGPT, а не из книг, на домашней странице нейросети есть маленькое предупреждение о том, что ИИ может иногда генерировать неверные факты.

OpenAI действительно можно привлечь?

Непонятно. Судя по всему, подобных прецедентов в юридической практике нет. Раздел 230 — принятое в 1996 году положение федерального закона — защищает интернет-компании от ответственности за информацию, созданную и размещенную на их платформах третьими лицами. Но применимо ли это к ИИ, непонятно.

Профессор права Юджин Волох, изучающий юридическую ответственность ИИ, полагает, что подобные иски в принципе обоснованны, но это дело может быть сложным для рассмотрения. Юрист отмечает, что OpenAI удалила ложные результаты, а таже то, что никакого реального вреда случившееся не причинило.

Изображение сгенерировано нейросетью Kandinsky.

Свежие новости

spot_img

Оставьте ответ

Пожалуйста, введите свой комментарий!
Пожалуйста, введите ваше имя здесь