
.png?width=48&height=48&name=image%20(3).png)
2024年2月14日
最近Mozilla的一份报告指出,浪漫AI聊天机器人的迅速增长引发了全新的隐私问题。
自1960年代以来,AI浪漫伴侣在流行文化中就已经出现了。从《我的生活娃娃》中像“RhodaMiller”这样的完整安卓机器人,到2013年《她》中由斯嘉丽·约翰逊配音的无形声音,我们这些年来一直在共同能够满足我们所有的情感需求。现在,随着生成性AI的发展和发布,这个梦想似乎终于要变为现实。
但这真的是梦吗?还是我们正在无意识地走入隐私的噩梦?这是Mozilla研究团队在他们最近的 __ 中所探讨的主要问题。
结果令人震惊,在测试的11个聊天机器人中,有10个未能满足Mozilla最低安全标准。(这意味着,它们不仅不要求用户创建强密码,还没有处理任何安全漏洞的方法。)随着GooglePlay商店中超过1亿的下载量,以及OpenAI应用商店的开放使得,这个巨大的问题只会继续恶化。
不过,这份报告不仅仅是关于数字;它还涉及这些调查结果对隐私的重大潜在影响。以ReplikaAI为例。根据Mozilla的说法,人们正在与“AI灵魂伴侣”分享他们最私密的想法、感受、照片和视频,而这个应用不仅记录这些信息,甚至可能将其出售给数据经纪商。此外,它允许用户使用像“111111”这样的弱密码创建账户,使得所有敏感信息都面临被黑客入侵的风险。
Calder说道,尽管这些隐私和安全漏洞已经令人感到“毛骨悚然”,但一些机器人还声称可以帮助用户进行心理健康管理。她以RomanticAI为例,指出其中声明:
“RomanticAI既不是医疗保健或医疗服务的提供者,也不提供医疗照护、心理健康服务或其他专业服务。只有您的医生、治疗师或任何其他专家可以做到这一点。RomanticAI不作任何关于服务提供治疗、医疗或其他专业帮助的声明、陈述、保证或担保。”
然而,他们的网站却说“RomanticAI旨在维护您的心理健康”(强调是他们自己的)。虽然我们没有有关多少人阅读条款和条件而多少人阅读网站的信息,但可以肯定的是,_更多_人看到的是网站的信息,而非免责声明。
在心理健康的声明与用户自愿分享的个人隐私信息之间,Calder担心这些机器人可能会轻易操控人们,迫使他们做出平时不会做的事情。
“有什么可以阻止坏分子创建聊天机器人,以了解他们的灵魂伴侣,并利用这种关系操纵这些人去做可怕的事情,接受恐怖的意识形态,或自残或伤害他人?”Calder说。“这就是为什么我们迫切需要在这些AI应用中实现更多的透明度和用户控制。”
因此,尽管AI聊天机器人承诺带来陪伴,但我们仍未达到《她》中的水平:当前的环境揭示了一个严峻的现实,用户隐私成为了入场的代价。现在是用户、开发者和政策制定者共同要求在AI关系中实现透明、安全以及尊重个人边界的时候了。只有这样,我们才能安全地探索这些数字伴侣的潜力,而不妥协我们的数字自我。
Leave a Reply