揭开 AI 关系聊天机器人的真相

![Emma McGowan](https://486579.fs1.hubspotusercontent- na1.net/hub/486579/hubfs/image%20(3) .png?width=48&height=48&name=image%20(3).png)
2024年2月14日

最近,Mozilla的一份报告发现,浪漫AI聊天机器人的兴起带来了一系列全新的隐私问题。

自1960年代以来,AI浪漫伴侣一直是流行文化中的“热点”。从《我的生活娃娃》中的全人形机器人“RhodaMiller”,到2013年《她》中斯嘉丽·约翰逊所声演的无形声音,我们几代人已经共同期待著人工智慧能满足我们所有的情感需求。现在,随著生成AI的发展和推出,这一梦想看似终于有可能变成现实。

但这真的是梦想吗?还是我们正不知不觉中走进一场隐私噩梦?这正是Mozilla研究团队最近在其 __ 中所关注的问题。

研究结果令人震惊,11款测试中的10款聊天机器人甚至未能满足Mozilla的最低安全标准。(这意味著,这些聊天机器人不要求用户创建强密码,或没有处理安全漏洞的方式。)在GooglePlay商店估计已有超过1亿次下载的情况下,以及OpenAI应用商店最近开放时出现的浪漫聊天机器人潮,这一巨大问题只会越来越严重。

不过,这份报告不仅仅是数字问题;它还关乎这些发现可能带来的重大隐私影响。例如,根据Mozilla的说法,用户在ReplikaAI这款应用上与其“AI灵魂伴侣”分享了最亲密的思想、感觉、照片和视频,而这款应用不仅记录这些信息,还有可能将其出售给数据经纪商。该应用甚至允许用户创建像“111111”这样的弱密码帐户,使得所有这些敏感信息容易受到黑客攻击。

Calder指出,尽管这些隐私和安全缺陷已“令人毛骨悚然”,但一些聊天机器人还声称能帮助用户的心理健康。她以Romantic AI为例,其 __ 指出:

“Romantic AI既不是医疗保健或医疗服务的提供者,也不提供心理健康服务或其他专业服务。只有您的医生、治疗师或其他专家才能做到这一点。RomanticAI对服务提供治疗、医疗或其他专业帮助不作任何声明、陈述、保证或保证。”

然而,他们的网站却写著“RomanticAI致力于维护您的心理健康”(强调为他们所用)。虽然我们没有数据来确定有多少人阅读了条款和条件与有多少人阅读了网站,但可以合理推测,有非常多的人会看到网站上的信息而不是免责声明。

在心理健康的声明和用户自愿分享的个人隐私信息之间,Calder担心这些机器人可能会轻易地操控人们做一些他们本不会做的事情。

“有什么能阻止不良行为者创建聊天机器人,设计来了解他们的灵魂伴侣,然后利用这种关系操纵这些人去做可怕的事情,接受令人恐惧的意识形态,或伤害自己或他人?”Calder表示,“这就是为什么我们迫切需要在这些AI应用中提高透明度和用户控制权。”

因此,尽管AI聊天机器人承诺提供伴侣,但我们距离《她》的那种程度尚未实现:当前的情况揭示了一个严酷的现实,即用户隐私是进入的代价。现在是时候让用户、开发者与政策制定者要求在AI关系领域中提高透明度、安全性,并尊重个人界限。只有这样,我们才能安全地探索这些数字伴侣的潜力,而不妥协我们的数位自我。

Leave a Reply

Required fields are marked *