В последние годы прорывы в обработке естественного языка (NLP) и машинном обучении привели к разработке продвинутых языковых моделей, таких как ChatGPT. Эти языковые модели используются для различных целей, включая генерацию текста, понимание языка и разговорные задачи. Хотя эти языковые модели могут открыть новые возможности для исследований и разработки более совершенного искусственного интеллекта, они также представляют потенциальные риски.
Недавнее исследование, проведенное в Институте искусственного интеллекта Аллена Вашингтонского университета, выявило потенциальные опасности, связанные с ChatGPT и другими языковыми моделями. Исследование продемонстрировало, что ChatGPT и аналогичные языковые модели обладают потенциалом генерировать предвзятые формулировки при предоставлении необъективного набора данных. Кроме того, злоумышленники могут легко манипулировать этими моделями, в результате чего формулировки увековечивают существующие стереотипы и предрассудки. Другими словами - это написание найчных работ, которые не подтверждены никакими исследованиями, а сгенерированны языковой моделью. С такими знаниями человечество далеко не уйдет.