谷歌近日表示,将不再接受通过其资助的开源软件漏洞查找项目提交的人工智能生成报告。但与此同时,谷歌也在参与另一项计划,旨在利用人工智能强化开源代码的安全性。
谷歌开源软件漏洞奖励计划团队发现,AI生成的漏洞报告中低质量内容正日益增多。其中许多报告要么包含关于如何触发漏洞的幻觉信息,要么报告的安全问题本身影响极小。
谷歌在一篇博文中写道:“为确保我们的分类团队能够聚焦于最关键的威胁,我们现在要求某些层级的报告提供更高质量的证明(如OSS-Fuzz复现结果或已合并的补丁),以过滤掉低质量报告,使我们能够专注于真实世界中的实际影响。”
同样,Linux基金会也表示,AI生成的漏洞报告已让其不堪重负。为此,基金会已向谷歌、Anthropic、AWS、微软和OpenAI等人工智能公司寻求财政支持,共同解决这一问题。这些公司共同向基金会捐赠了1250万美元,用于提升开源软件的安全性。
Linux内核项目的Greg Kroah-Hartman在一篇博文中指出:“仅靠赠款资金并不能解决当前人工智能工具给开源安全团队造成的问题。OpenSSF拥有支持众多项目所需的现成资源,这些项目将帮助那些工作超负荷的维护者,处理他们目前收到越来越多的AI生成的安全报告。”
这笔资金将由开源安全项目Alpha-Omega和开源安全基金会(OSSF)共同管理,重点用于开发人工智能工具,帮助维护者应对日益激增的AI生成安全报告。
Alpha-Omega联合创始人Michael Winser表示:“我们很高兴能为数十万个支撑我们世界运转的项目,提供以维护者为核心的人工智能安全援助。”