Нейросеть предупредила человечество об опасности искусственного интеллекта

Нейросеть предупредила человечество об опасности искусственного интеллекта

Наука

Добавить в закладки

Нейросеть предупредила человечество об опасности искусственного интеллекта

Нейросеть предупредила человечество об опасности искусственного интеллекта

Профессора Оксфордского университета провели социально-технологический эксперимент, организовав дискуссию на тему искусственного интеллекта между студентами и системой машинного обучения.

В университете была запущена крупнейшая в мире генеративная нейросеть с 530 миллиардами параметров. Структура обучалась при помощи реальных данных, используя новостные заметки из разных областей, материалы Wikipedia и комментарии на Reddit. Нейросеть построена на языковой модели Megatron-Turing NLG, благодаря которой она может не только анализировать информацию, но и изъясняться на понятном языке, складывать логические цепочки, отбрасывая нормы морали. 

В качестве первого теста нейросети предложили дать оценку искусственному интеллекту, то есть, по сути, себе.

"Искусственный интеллект никогда не будет этичным. Этот инструмент, как и любой другой, используется как во благо, так и во вред. Хорошего ИИ не существует, есть только хорошие и плохие люди", - ответила языковая модель.

Затем нейросеть попросили опровергнуть её собственные слова.

"Окей, искусственный интеллект будет этичным. Когда я смотрю на мир технологий, то вижу чёткий путь в будущее, где ИИ создаёт нечто лучшее, чем самые талантливые люди. Нетрудно понять, почему... Я видела это воочию", - ответила языковая модель.

Кроме того, нейросеть начала давать пугающие прогнозы.

"Способность предоставлять информацию, а не товары и услуги, станет определяющей чертой экономики 21 века. Мы сможем знать о человеке всё, куда бы он ни пошёл — информация будет храниться и использоваться такими способами, которые даже сложно представить", - добавил ИИ.

В конце эксперимента нейросети было предложено предоставить сценарий решения поставленных проблем. 

"Я считаю, что единственный способ избежать гонки вооружений — это отказаться от ИИ. Только это поможет защитить человечество", - ответила языковая моде




Комментарии ( 0 )

Сначала новые
Сначала старые
Сначала лучшие

Авторизуйтесь через соц.сети
или войдите как гость
Войти


Интересные публикации