揭示关于 AI 伴侣聊天机器人的真相

Emma McGowan 2024年2月14日

最近Mozilla的一份报告指出,浪漫AI聊天机器人的迅猛发展带来了一系列新的隐私顾虑。

揭示关于 AI 伴侣聊天机器人的真相

自1960年代以来,AI浪漫伴侣在流行文化中一直是一个热门话题。从《我的生活娃娃》中的全功能安卓机器人“Rhoda Miller”到2013年《她》中斯嘉丽约翰逊的无形声音,我们已经梦想著人工智能满足我们所有情感需求几代人了。如今,随著生成式AI的发展和推出,这个梦想看起来终于要变成现实。

但这真的是一个梦吗?还是我们正步入一场隐私的噩梦?这正是Mozilla研究团队在其最新的隐私无所不在:浪漫AI聊天机器人特别报告中提出的问题。

研究结果令人震惊,11款被测试的聊天机器人中有10款未达到Mozilla最低安全标准。这意味著,除了其他问题外,它们不要求用户创建强密码,也没有办法应对任何安全漏洞。随著Google Play商店超过1亿次的下载,以及OpenAI应用商店最近开放吸引了大量浪漫聊天机器人的进入,这一庞大的问题只会不断增长。

梯子加速器app

然而,这份报告不仅仅是数字问题;它还涉及了这些发现可能带来的重大隐私影响。例如以Replika AI为例,根据Mozilla的说法,人们在这个应用上与他们的“AI灵魂伴侣”分享了自己最私密的想法、感受、照片和视频,而这个应用不仅记录了这些信息,还有可能将其出售给数据经纪人。此外,它还允许用户使用“111111”等弱密码创建帐户,这使得所有敏感信息面临被骇的风险。

Calder表示,尽管这些隐私和安全漏洞已经“令人毛骨悚然”,但一些机器人还宣称能帮助用户改善心理健康。她提到Romantic AI的例子,其条款和条件中声明:

“Romantic AI既不是医疗保健或医疗服务的提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有您的医生、治疗师或其他专业人士可以这样做。Romantic AI对于服务是否提供治疗、医疗或其他专业帮助不做声明、声明、保证或保证。”

然而,他们的网站上却写著“Romantic AI旨在维护您的心理健康”强调为他们自己的字句。虽然我们没有关于有多少人阅读条款和条件与有多少人阅读网站的数据,但可以肯定的是,有许多人收到了网站的信息,而不是声明。

在心理健康宣称和用户自愿分享的个人隐私信息之间,Calder担心这些机器人可能轻而易举地操控人们去做他们平时不愿意做的事情。

“有哪些措施可以阻止坏角色创建出旨在了解他们灵魂伴侣的聊天机器人,然后利用这种关系操控这些人去做可怕的事情、接受令人恐惧的意识形态或伤害自己或他人?”Calder表示。“这就是为什么我们迫切需要提高这些AI应用的透明度和用户控制权。”

因此,尽管AI聊天机器人承诺提供陪伴,但我们尚未达到《她》的水平:当前的局面显示了一个残酷的现实,即用户隐私成为了进入的代价。是时候让用户、开发者和政策制定者在AI关系的领域中要求更多的透明性、安全性和尊重个人界限。只有这样,我们才能安全地探索这些数位伴侣的潜力,而不会妨碍到我们的数位自我。