Технологии

Ученые предупреждают об опасности ИИ-генерированного контента
Фото: freepik / freepik

27 июля 2024

Автор:

Ученые предупреждают об опасности ИИ-генерированного контента

Исследователи из Оксфордского университета выражают серьезную озабоченность по поводу увеличения количества контента, созданного с помощью искусственного интеллекта (ИИ). Они предупреждают, что это может привести к «коллапсу модели», если отрасль не сможет уменьшить риски.

Команда ученых обнаружила, что использование наборов данных, сгенерированных ИИ, для обучения будущих моделей может привести к появлению бессмысленного контента. В качестве примера они приводят модель, которая начала текст о средневековой европейской архитектуре, а закончила его нелепыми рассуждениями о кроликах.

Ученые отмечают, что ИИ может не замечать менее распространенные строки текста в обучающих наборах данных. Это означает, что последующие модели, обученные на выходе, не могут учесть эти нюансы, что ведет к «рекурсивному циклу».

Ученые сравнивают эту проблему с «долгосрочными атаками», такими как фермы кликов, контента и троллей, которые вводят в заблуждение социальные сети и поисковые алгоритмы. Однако масштабы возможного «отравления контента» значительно увеличатся с появлением крупномасштабных языковых моделей (LLMS).

Один из способов решения этой проблемы — нанесение «водяных знаков» на контент, созданный с помощью ИИ.

Раннее ITinfo сообщало, что созданы «копирайт-ловушки» для защиты авторских прав от ИИ.

Loading...