在2025年SXSW大会和音乐节上,Signal总裁Meredith Whittaker对自主AI代理(agentic AI)的隐私和安全风险发出了严厉警告。她指出,这类AI系统虽然被宣传为能够为用户完成任务的“魔法精灵”,但其对数据的广泛访问可能对用户隐私构成严重威胁。
自主AI代理的核心问题
自主AI代理是指能够在不需要人类输入的情况下进行推理并执行任务的AI系统。Whittaker表示,这种AI的便利性是以牺牲用户隐私为代价的。例如,AI代理可以完成从查找音乐会、预订门票到通过Signal向朋友发送消息等任务。然而,在执行这些任务时,AI需要访问用户的浏览器、信用卡信息、日历以及Signal等应用程序的数据。
隐私与安全的潜在威胁
Whittaker强调,AI代理的强大功能意味着它需要以类似“根权限”的方式访问整个系统,甚至可能以明文形式处理数据,因为没有加密模型可以支持这种操作。此外,为了完成复杂任务,AI代理可能会将用户数据发送到云端服务器进行处理,这进一步加剧了数据泄露的风险。
AI代理的深层隐患
Whittaker指出,AI代理的普及可能会模糊应用层和操作系统层之间的界限,从而威胁到Signal等应用程序的隐私保护机制。她警告说,这种趋势可能会破坏用户数据的隔离性,导致隐私泄露。
业界专家的共识
Whittaker并非唯一对自主AI代理提出担忧的专家。被誉为AI教父之一的加拿大科学家Yoshua Bengio也在今年1月的达沃斯世界经济论坛上表达了类似的观点。Bengio认为,如果AI代理技术发展不当,可能会引发灾难性后果。他呼吁加大对安全和可控AI的研究投入,以避免未来出现不可控的局面。
两位专家的警告提醒我们,在追求AI技术便利性的同时,必须高度重视其潜在风险,并采取措施确保用户隐私和数据安全。