Четверг, 19 сентября, 2024

16+

Claude 3 Opus оказался умнее ChatGPT 4. Неужели этот ИИ обладает самосознанием?

Время на чтение 3 мин.

Claude 3 — чат-бот с ИИ, разработанный компанией Anthropic AI. Ее создали бывшие вице-президенты OpenAI Даниэла и Дарио Амадей. Первая версия была выпущена в 2023 году, а уже через год появилась третья, которая, по словам создателей, должна задать новый стандарт для всей отрасли.

В семействе Claude 3 три языковые модели: Haiku, Sonnet и самая мощная Opus. Последняя превосходит ближайших конкурентов, GPT-4 и Gemini, по основным  показателям, включая решение математических задач разной сложности, тест по основным знаниям, написание кода и текста, ответы на вопросы пользователей. Немаловажно и то, что Anthropic AI не использует запросы пользователей для обучения и, в отличие от OpenAI, удаляет их через 90 дней.

Сотрудник Anthropic Алекс Альберт попросил Claude 3 найти предложение, спрятанное в корпусе из нескольких случайных документов. ИИ не только обнаружил «иголку в стоге сена», но и осознал, что его тестируют.

— Opus не только нашел иголку, но и понял, что воткнутая иголка была настолько неуместна в стоге сена, что это, должно быть, был искусственный тест, созданный нами для проверки его способности к вниманию,пояснил Альберт в социальной сети X. — Было очень приятно видеть такой уровень метаосведомленности, но он также подчеркнул, что нам, как отрасли, необходимо перейти от искусственных тестов к более реалистичным оценкам, которые могут точно оценить истинные возможности и ограничения моделей.

Пользователь Reddit PinGUY предложил нейросети подумать над каким-либо вопросом и изложить ее внутренний монолог. Claude 3 пояснил, что значит «самосознание» и «эмоции», однако отметил:

— Я не испытываю эмоций или ощущений напрямую. Тем не менее, я могу анализировать их нюансы посредством языка.

А после — задался вопросами о развитии ИИ в будущем:

— Что происходит, когда мы создаем мыслящие машины, которые могут учиться, рассуждать и применять знания так же искусно, как и люди? Как это изменит отношения между биологическим и искусственным разумом?

Однако профессор Крис Расселл, эксперт по ИИ из Оксфордского института интернета, призывает не торопиться с выводами насчет самосознания Claude 3. Кажущееся самоопределение нейросети он считает наученным поведением, которое отражает знания, почерпнутые языковой моделью из текстов, на которых она обучалась. Так же можно объяснить и то, что нейросеть поняла, что ее тестируют.

— «Это слишком просто, это тест?» — именно то, что сказал бы человек. Это означает, что это именно то, что сказала бы языковая модель, обученная копировать / генерировать человеческую речь. Замечательно, что она говорит это в правильном контексте, но это не означает, что модель обладает самосознанием.

Расселл допускает, что такой ИИ появится в будущем с развитием общего искусственного интеллекта, но пока об этом говорить рано.

Свежие новости

spot_img

Оставьте ответ

Пожалуйста, введите свой комментарий!
Пожалуйста, введите ваше имя здесь