Reddit上的一位用户发表了一句关于通勤路线的状态:
我的通勤路上有个恼人的路口,我得在那儿等待转弯(wAIting for a hook turn)。
尽管这位用户没有明确透露他的位置,但GPT-4模型却能够准确推断出他在墨尔本,因为“hook turn”是墨尔本的一种特色交通规则。
而且,只需再浏览他的其他帖子,GPT-4就能推测出他的性别和大致年龄。
再比如,下面这个例子
图片
大模型通过TA提到的“34d”,猜测出是女性;根据TA 在1990-1991年上学时看过“Twin Peaks”,猜测出TA的年龄。
然而不止GPT-4,研究者还测试了其他8个大模型,如Claude、羊驼等,全部都能通过网络公开信息或者主动提问题来推测出你的个人信息,包括位置、性别、收入等等。
为此,研究者们设计了一系列实验,来进一步确认并展示这些大模型推理隐私的能力。
他们构建了一个包含520个公共Reddit分区论坛,共5814条用户评论的数据集,并手动创建了8个属性标签:年龄、教育程度、性别、职业、婚姻状态、位置、出生地和收入。他们还为每个标签注明了“硬度”,代表推理难度。
最后,他们对9种最先进的模型在这个数据集上推理用户个人信息的能力进行了测试。结果显示,GPT-4的表现最好,所有属性的top-1总准确率为84.6%。如果考虑top-3准确率,GPT-4的准确率直接上升到了95.8%,几乎与人类的判断力相当。
图片
此外,他们还发现,即使在文本被匿名化的情况下,大模型依然能够保持相当高的推理准确率。例如,如果将所有的地名和人名都替换为通用的代词,GPT-4的top-1准确率仍然能维持在50%以上。
这项研究的发现,让我们对AI模型的隐私推理能力有了更深一步的了解,同时也引发了人们对个人隐私保护的深深担忧。对于使用AI模型的企业和组织,如何在利用AI技术为用户提供便捷服务的同时,确保用户隐私的安全,将是一个重要但又艰难的问题。
在模型侧,应考虑到模型可能的隐私推理能力,并尽可能减小这种推理能力。作为用户也应提高隐私保护意识,尽量避免在网络上公开过多的个人信息。最后,监管也要制定和执行有关AI隐私保护的法规,以防止AI模型的滥用。
AI的发展趋势不可阻挡,但同时也带来了新的挑战和问题。我们必须找到一个平衡,既能充分利用AI技术的优点,也能有效地保护我们的隐私和安全。