Языковые модели на основе искусственного интеллекта опасны для науки

Наука

129 0 Добавить в закладки

Языковые модели на основе искусственного интеллекта опасны для науки

Языковые модели на основе искусственного интеллекта опасны для науки

В последние годы прорывы в обработке естественного языка (NLP) и машинном обучении привели к разработке продвинутых языковых моделей, таких как ChatGPT. Эти языковые модели используются для различных целей, включая генерацию текста, понимание языка и разговорные задачи. Хотя эти языковые модели могут открыть новые возможности для исследований и разработки более совершенного искусственного интеллекта, они также представляют потенциальные риски.

Недавнее исследование, проведенное в Институте искусственного интеллекта Аллена Вашингтонского университета, выявило потенциальные опасности, связанные с ChatGPT и другими языковыми моделями. Исследование продемонстрировало, что ChatGPT и аналогичные языковые модели обладают потенциалом генерировать предвзятые формулировки при предоставлении необъективного набора данных. Кроме того, злоумышленники могут легко манипулировать этими моделями, в результате чего формулировки увековечивают существующие стереотипы и предрассудки. Другими словами - это написание найчных работ, которые  не подтверждены никакими исследованиями, а сгенерированны языковой моделью. С такими знаниями человечество далеко не уйдет.


 Поймайте Дзен — подписывайтесь на NewsFrol! 


Комментарии ( 0 )

Сначала новые
Сначала старые
Сначала лучшие

Авторизуйтесь через соц. сети
или войдите как гость
Войти
 Поддержите СМИ NewsFrol



Жутко интересно





Очень интересные статьи



Последние комментарии