只有在监管机构推迟后,Meta才暂停了使用Facebook和Instagram帖子以及欧洲用户的其他内容来训练其人工智能引擎的计划。这并没有阻止它使用美国用户的数据进行人工智能培训。
通过最近提议的政策变化,欧盟和英国的Facebook和Instagram用户了解到,Meta计划使用他们公开发布的任何东西来训练其生成人工智能(genAI)模型。
在美国,Meta长期以来一直使用Facebook和Instagram的公共帖子来训练其Meta AI聊天机器人——许多用户对此并不知道。用户与Meta AI的互动也用于培训。
Meta对其隐私政策的更改最初将于6月26日对欧盟和英国用户生效,这将允许其使用公共帖子、图像、评论和知识产权来培训Meta AI及其驱动的模型,包括该公司的Llama大型语言模型(LLM)。LLM是genAI引擎背后的算法或程序。该公司表示,它不会使用私人帖子或私人消息来培训其模型。
根据Meta 6月10日的新闻稿,欧盟和英国的用户可以选择不将其内容用于人工智能培训,但只能填写反对表格。
当欧盟和英国监管机构了解Meta的计划时,他们以隐私问题为由进行了反击。Meta随后暂停了欧盟用户隐私政策更改计划,并补充说,延迟“意味着我们目前无法在欧洲推出Meta AI。”
爱尔兰数据保护委员会(DPC)发布了对Meta的回复,暂停其新政策的推出,称“该决定是在DPC和Meta之间密集参与之后做出的。DPC将与欧盟数据保护机构合作,继续就这个问题与Meta接触。”
Meta回应了Computerworld的评论请求,指出了该公司全球参与总监Stefano Fratta的一篇博客文章。Fratta在她的帖子中表示,Meta正在遵循“其他人树立的榜样,包括谷歌和OpenAI,这两个公司都已经使用欧洲人的数据来训练人工智能。”
Fratta说:“我们的方法比我们许多已经根据类似的公开信息培训其模型的行业同行更透明,并提供更易于控制的控制。”“模型是通过查看人们的信息来识别模式的,例如理解口语短语或本地引用,而不是识别特定的人或其信息。”
Fratta重申,Meta正在通过仅使用用户选择公开的内容来构建其基础的人工智能模型。
在美国,隐私保护比英国和欧洲弱,Meta的用户从未有机会选择不将他们的公共帖子和评论用于培训公司的人工智能模型。在《纽约时报》发布的一份声明中,Meta在谈到美国用户时说:“虽然我们目前没有选择退出功能,但我们内置了平台内工具,允许人们在我们的应用程序中从与Meta AI的聊天中删除他们的个人信息。”
Gartner副总裁分析师Avivah Litan表示,Meta计划使用欧洲用户的帖子和其他信息“相当令人不安”,“Meta只是给了用户更多理由不信任他们的服务。”
Litan说,至少,Meta应该更加透明,让用户更容易选择退出,并了解他们选择退出或不退出的影响。
“用户和我们的企业客户有理由担心模型所有者使用他们的私人数据来训练和改进他们的模型。事实上,当涉及到genAI风险和威胁时,这是他们主要关注的问题,”Litan说。“现在Meta正在验证他们的恐惧是有效的。”
Meta最初于5月31日通过一封标题为“随着我们在Meta扩展人工智能,我们正在更新我们的隐私政策”的电子邮件通知用户其隐私政策的变化。电子邮件通知部分指出:“我们现在将依靠称为合法利益的法律依据来使用您的信息来开发和改进Meta的人工智能。”
Litan说,隐私政策的更新往往被收件人忽视,他们习惯于收到过多的隐私政策更新。此外,她指出,大多数用户不会理解如何选择退出新政策。
Litan说:“用户对弄清楚幕后发生的所有模糊的黑匣子隐私过程感到自满,主要是因为他们无论如何都无法理解它们。”她补充说:“当然,如果你有问题,在Meta没有人可以交谈,我们也没有教程或视频来解释不选择退出意味着什么,也没有如何选择退出。”
Litan说,Meta应该向用户支付数据费用,因为他们正在使用它来提高自己的盈利能力。
Meta并不是唯一一个利用企业和用户公开发布的数据来构建其技术的公司。Litan说,除苹果外,没有一家托管消费者和企业使用的人工智能的超大规模或科技巨头允许用户验证他们关于安全和隐私的主张。“这一切都基于'信任但不验证'模式。”