Об этом сообщает Venture beat.

В ходе исследования ученые рассматривали генеративные модели искусственного интеллекта, которые могут создавать тексты из введенных слов и изображения из приведенных картинок. Они пришли к выводу, что “обучение с учетом данных, созданных другими моделями, приводит к коллапсу модели – дегенеративному процессу, в котором впоследствии модели забывают настоящее базовое распределение данных”. Они добавляют, что это неизбежно даже в случаях “почти идеальных условий для долгосрочного обучения”.

Ученые отмечают, что впоследствии ошибки накапливаются, поэтому модели ИИ, которые учатся на полученных данных, еще более неправильно воспринимают окружающий мир.

“Мы были удивлены, увидев, как быстро происходит коллапс модели: они могут быстро забыть большую часть исходных данных, на основе которых они поначалу обучались”, – заявил один из авторов нового исследования Илья Шумайлов.

Простыми словами, чем больше модель ИИ учится на данных, сгенерированных другими нейросетями, тем больше ошибок она допускает в производимом контенте, и ее ответы становятся менее разнообразными.

“Так же, как мы забросали океаны пластиковым мусором и наполнили атмосферу углекислым газом, мы собираемся заполнить интернет любой чепухой. Это усложнит обучение новых моделей путем парсинга веб-страниц, что даст преимущество фирмам, которые уже сделали это или контролируют доступ к человеческим. интерфейсов в масштабе. Действительно, мы уже видим, как стартапы в области ИИ забивают интернет-архив для получения обучающих данных”, – заявил другой автор исследования Росс Андерсон, профессор техники безопасности в Кембриджском и Эдинбургском университетах.

Ранее сообщалось, что искусственный интеллект отберет рабочие места преимущественно у женщин.