人工智能 频道

Gartner预测,到2027年,40%的人工智能数据泄露将源于跨境GenAI滥用

  根据Gartner公司的数据,到2027年,超过40%的人工智能相关数据泄露将由跨境不当使用生成人工智能(GenAI)引起。

  最终用户对GenAI技术的快速采用已经超过了数据治理和安全措施的发展,由于支持这些技术所需的集中计算能力,这引起了人们对数据本地化的担忧。

  Gartner副总裁分析师Joerg Fritsch说:“由于监督不足,经常会发生意外的跨境数据传输,特别是当GenAI在没有明确描述或公告的情况下集成到现有产品中时。”“组织注意到员工使用GenAI工具制作的内容发生了变化。虽然这些工具可用于已批准的业务应用程序,但如果将敏感的提示发送到托管在未知位置的人工智能工具和API,它们会带来安全风险。”

  全球人工智能标准化差距推动了运营效率低下

  缺乏一致的人工智能和数据治理全球实践和标准,这加剧了挑战,导致市场分裂,迫使企业制定特定区域的战略。这可能会限制他们在全球范围内扩展运营的能力,并从人工智能产品和服务中受益。

  Fritsch说:“由于本地化的人工智能政策,管理数据流和保持质量的复杂性可能导致运营效率低下。”“组织必须投资于先进的人工智能治理和安全,以保护敏感数据并确保合规性。这种需求可能会推动人工智能安全、治理和合规服务市场的增长,以及提高人工智能流程透明度和控制的技术解决方案。”

  在人工智能治理成为全球任务之前,组织必须采取行动

  Gartner预测,到2027年,人工智能治理将成为全球所有主权人工智能法律和法规的要求。

  Fritsch说:“无法整合所需的治理模式和控制的组织可能会发现自己处于竞争劣势,特别是那些缺乏资源快速扩展现有数据治理框架的组织。”

  为了减轻人工智能数据泄露的风险,特别是跨境GenAI滥用的风险,并确保合规性,Gartner为企业建议采取几项战略行动:

  加强数据治理:组织必须确保遵守国际法规,并通过扩展数据治理框架来监控意外的跨境数据传输,以包括人工智能处理的数据准则。这涉及将数据血统和数据传输影响评估纳入常规隐私影响评估中。

  建立治理委员会:组建委员会,以加强人工智能监督,并确保关于人工智能部署和数据处理的透明沟通。这些委员会需要负责技术监督、风险和合规管理以及沟通和决策报告。

  加强数据安全:使用先进技术、加密和匿名化来保护敏感数据。例如,当数据必须离开这些地区时,验证特定地理区域的可信执行环境,并应用先进的匿名化技术,如差异隐私。

  投资TRiSM产品:为信任、风险和安全管理(TRiSM)产品和功能规划和分配预算,以适应人工智能技术。这包括人工智能治理、数据安全治理、提示过滤和编辑,以及非结构化数据的合成生成。Gartner预测,到2026年,应用AI TRiSM控制的企业将消耗至少50%的不准确或非法信息,减少错误的决策。

0
相关文章