26 апреля 2024

В курганском ВУЗе выяснят причины дерзости и бреда искусственного интеллекта

© Служба новостей «URA.RU»
Размер текста
-
17
+
Пермский край на выставке "Россия" на ВДНХ. Москва, ии, искусственный интеллект, робот
Студент КГУ исследует причины галлюцинаций и «дерзости» ИИ ChatGPT-4 (фото из архива) Фото:

Студент Курганского государственного университета Алексей Митрофанов проводит исследование, направленное на выяснение причин «дерзости» и «галлюцинаций» искусственного интеллекта (ИИ) самой популярной нейронной сети ChatGPT-4. Он планирует представить ответы на вопросы некорректного поведения нейросети на студенческой научной конференции, сообщает КГУ в своем telegram-канале

«Галлюцинации в контексте ChatGPT-4 представляют собой ситуации, когда модель генерирует ответы, содержащие неверные или выдуманные факты, которых не было в обучающих данных. Она создает информацию, не имеющую отношения к реальности или несоответствующую контексту», — делится Митрофанов. Это явление особенно актуально для популярных моделей, ChatGPT-4 и его аналогов, работающих по такому же принципу.

Также студентом было проведено тестирование, которое показало, что нейросети предлагают пользователю дополнительно проверить полученные данные. В то время как одна из них — «Bing AI» иногда не только ошибается в ответах, но и проявляет «дерзость» в ходе коммуникации и не пытается исправить информацию по запросу человека. Студент призывает пользователей быть бдительными и не доверять выдаваемым данным, полностью полагаясь на ИИ.

Ранее URA.RU писало, что власти Кургана хотят внедрить нейронные сети для повышения эффективности городского транспорта и решения его проблем. Кроме того, отмечалось, что власти региона создали чат-бота, который предлагает виртуальные путешествия по местным достопримечательностям Курганской области.

Сохрани номер URA.RU - сообщи новость первым!

Хотите быть в курсе всех главных новостей Кургана и области? Подписывайтесь на telegram-канал "Курганистан"!

Все главные новости России и мира - в одном письме: подписывайтесь на нашу рассылку!
На почту выслано письмо с ссылкой. Перейдите по ней, чтобы завершить процедуру подписки.
Студент Курганского государственного университета Алексей Митрофанов проводит исследование, направленное на выяснение причин «дерзости» и «галлюцинаций» искусственного интеллекта (ИИ) самой популярной нейронной сети ChatGPT-4. Он планирует представить ответы на вопросы некорректного поведения нейросети на студенческой научной конференции, сообщает КГУ в своем telegram-канале «Галлюцинации в контексте ChatGPT-4 представляют собой ситуации, когда модель генерирует ответы, содержащие неверные или выдуманные факты, которых не было в обучающих данных. Она создает информацию, не имеющую отношения к реальности или несоответствующую контексту», — делится Митрофанов. Это явление особенно актуально для популярных моделей, ChatGPT-4 и его аналогов, работающих по такому же принципу. Также студентом было проведено тестирование, которое показало, что нейросети предлагают пользователю дополнительно проверить полученные данные. В то время как одна из них — «Bing AI» иногда не только ошибается в ответах, но и проявляет «дерзость» в ходе коммуникации и не пытается исправить информацию по запросу человека. Студент призывает пользователей быть бдительными и не доверять выдаваемым данным, полностью полагаясь на ИИ. Ранее URA.RU писало, что власти Кургана хотят внедрить нейронные сети для повышения эффективности городского транспорта и решения его проблем. Кроме того, отмечалось, что власти региона создали чат-бота, который предлагает виртуальные путешествия по местным достопримечательностям Курганской области.
Расскажите о новости друзьям

{{author.id ? author.name : author.author}}
© Служба новостей «URA.RU»
Размер текста
-
17
+
Расскажите о новости друзьям
Загрузка...