人工智能 频道

新的思科研究强调了数据安全和隐私问题对GenAI采用的影响

  思科2024数据隐私基准研究表明,超过四分之一的组织(27%)禁止使用GenAI来应对隐私和数据安全风险。虽然2023年是GenAI的突破年,但思科的研究表明,很大比例的组织对GenAI存在信任问题。

  思科基准研究的第七版是使用来自全球2600多名隐私和安全专业人士的数据汇编的。超过90%的受访者认为GenAI需要更先进的技术来管理数据和风险。

  受访者最关心的问题包括对其公司法律和知识产权的威胁(69%),以及向竞争对手或公众披露敏感信息的风险(68%)。

  尚未完全禁止GenAI的组织意识到风险。63%的人对可以输入的数据设定了限制,61%的人设定了员工可以使用哪些GenAI工具的规则。

  客户还担心涉及其数据的人工智能使用。思科的研究还显示,91%的组织认识到客户的担忧,并承认他们需要做更多事情来让客户放心。然而,客户信心与思科去年报告中的水平相似,这意味着没有取得多大进展。

  “LLM(GenAI)正在发展企业数字化转型工作,并引入需要尽早解决的新数据隐私预防措施。尽管GenAI可能具有潜力,但已经有人抱怨意外的数据隐私暴露,例如个人机密信息。公司必须通过设计实现数据隐私,以简化知识管理,获得预期效率,并安全地从GenAI创新中受益。”Votiro首席执行官Ravi Srinivasan说。

  数据安全和隐私的重要性在组织隐私支出的增加中显而易见。在过去的五年里,隐私支出翻了一番多。很高比例(95%)的受访者表示,隐私福利已经开始产生结果,平均组织获得的福利是其支出的1.6倍。

  思科副总裁兼首席隐私官Harvey Jang解释说:“94%的受访者表示,如果他们不充分保护数据,他们的客户就不会从他们那里购买。”外部认证和法律可以在向客户保证其数据安全方面发挥关键作用,因为这为组织可以信任提供了一些确凿的证据。

  软件交付管理解决方案的领导者LinearB最近发布的关于GenAI对软件交付生命周期影响的报告也表明,安全性是一个主要问题,其次是合规性和质量。

  随着GenAI采用率的增长,担忧全面急剧下降。这意味着对部署GenAI犹豫不决的组织在统计上更有可能不信任该技术。然而,在他们达到更高的收养阶段后,他们的一些担忧得到了缓解。

  去年,Gartner的一项调查也显示了GenAI风险方面的类似趋势。57%的受访者表示,他们担心人工智能生成的代码中泄露的秘密,58%的人担心不正确或有偏见的输出。

  虽然93%的IT和安全领导者表示他们参与了GenAI安全组织,但只有24%的人表示他们承担这一责任。

  该报告还强调了组织用于解决与GenAI相关的风险的一些工具。最流行的工具包括人工智能应用程序安全、ModelOps和隐私增强技术(PET)。

  另外几项研究表明,尽管GenAI需求激增,但各组织对GenAI部署仍然持谨慎态度。更严格遵守的迫在眉睫的威胁无济于事。然而,随着组织进入采用阶段,他们的信心应该会增强。

0
相关文章