IT之家 6 月 20 日消息,人工智能(AI)的发展日新月异,但也带来了一些隐患。最近,一组英国和加拿大的科学家发现,如果 AI 只学习其他 AI 生成的内容,那么经过几代训练后,AI 将输出无意义的垃圾信息,导致网络内容质量下降。
这些科学家在 5 月份发表了一篇论文,试图探究当 AI 互相训练时会发生什么。他们发现,在这种情况下,AI 输出的内容会逐渐变得荒谬可笑。例如,一篇关于中世纪建筑的文章,在经过九代 AI 训练后,变成了一篇关于各种颜色兔子的胡言乱语内容。
这种现象被称为“模型崩溃”。目前,大多数 AI 语言模型(如 ChatGPT 和 OpenAI)都是基于从互联网上获取的大量数据进行训练的,而这些数据大部分是由人类生成的。但是,随着 AI 生成内容的增加,未来的 AI 训练将不可避免地受到这些内容的影响。这意味着错误和无意义的信息会不断累积,后来的 AI 无法区分事实和虚构内容,开始误信自己的错误观念。
剑桥大学的罗斯・安德森教授是论文的作者之一,他在博客中将这种现象比作污染,写道:“就像我们用塑料垃圾污染了海洋,用二氧化碳污染了大气层,我们也即将用胡言乱语污染互联网。”
事实上,AI 生成内容已经在网络上广泛传播。IT之家注意到,今年 5 月,一个名为 NewsGuard 的网络虚假信息监测机构警告说,他们发现了 49 个完全由 AI 编写的新闻网站。此外,市场营销和公关机构也越来越多地将他们的文案交给聊天机器人来完成,导致人类作家失去工作机会。