人工智能 频道

提高亚马逊S3数据安全的三个步骤

  现代系统中的数据量已经飙升,超出了传统安全工具所能处理的。随着组织采用人工智能来提高生产力,安全团队面临着在广阔的云基础设施和应用程序中保护敏感信息的压力越来越大。数据创建的速度,加上复杂的多云环境,使传统的安全方法变得不足。人工智能系统引入了额外的复杂性——它们需要广泛的数据访问才能有效运行,但这种相同的访问创造了新的攻击载体。安全团队现在不仅要保护数据本身,还要保护人工智能系统如何与这些数据交互和处理这些数据。

  今年早些时候的Codefinger攻击证明了这种风险。这种勒索软件攻击针对亚马逊S3存储桶的用户,使用AWS自己的服务器端加密功能对文件进行加密。攻击者利用了AWS的内置功能,要求付款以换取解密密钥。这次攻击凸显了一个关键的弱点——攻击者将云平台的原生安全功能武器化到他们的用户身上。

  Codefinger攻击的意义超出了其技术复杂性。通过利用受害者自己的基础设施,攻击者可以更高效地以更低的成本执行漏洞,这表明类似的攻击将变得更加频繁。

  组织可以采取哪些措施来保护自己?数据安全和治理需要精确的可见性和控制。组织需要知道他们拥有哪些敏感数据,并严格管理如何访问这些数据。就Codefinger而言,公司可以立即执行以下三个技术步骤。

  具有SSE-C权限的审计身份

  第一步是审核可以使用SSE-C的身份(人类和非人类),并将该列表与SSE-C的授权用户主列表进行比较。首先删除三十多天处于非活动状态的高特权身份。从不需要的身份中消除不必要的SSE-C权限。通过SSE-C赎金所需的关键权限是s3:GetObject和s3:PutObject。清理这些权限后,将那些拥有 SSE-C 权限的权限隔离起来,并确保他们无法禁用对象版本、销毁备份、销毁现有日志或禁用日志记录。监控以下权限是否与 SSE-C 权限混合使用:

  删除日志

  s3:DeleteBucket – 允许删除包含桶的日志

  s3:DeleteObject – 允许删除桶中的特定对象

  删除备份

  s3:DeleteObjectVersion – 允许删除对象的特定版本

  备份:删除恢复点——允许删除AWS备份S3恢复点

  对象版本

  s3:PutBucketVersioning – 允许启用或暂停版本

  日志记录和审计配置

  s3:PutBucketLogging – 允许启用、禁用或更改存储桶日志记录配置

  s3:GetBucketLogging – 提供对当前日志记录配置的可见性

  s3:PutBucketPolicy – 允许修改存储桶策略,这可能会间接禁用日志记录或阻止访问日志记录

  s3:PutBucketAcl – 允许修改存储桶访问控制列表(ACL),可能会中断访问日志记录

  对已经首先访问您的数据的不活跃或未经授权的用户的审计,并将特定权限委托给剩余的身份,是这个威胁缓解过程的重要组成部分。此时,在继续任何其他步骤之前,您应该能够清楚地看到提供给人类和非人类身份的所有授权权限。

  在亚马逊S3中记录数据事件

  第二步是使用CloudTrail数据事件或S3服务器访问日志在S3中记录数据事件。AWS默认省略S3 GET和PUT,限制了攻击调查能力。一个方法是通过CloudTrail数据事件或S3服务访问日志在S3中启用数据事件日志记录。

  CloudTrail数据事件比S3服务访问日志提供更详细。然而,它们是按数据事件量计费的,因此对于变化率高的桶来说,成本可能会迅速上升。S3服务器访问日志不为日志生成收费,仅用于存储。

  无论您选择哪个日志目标存储桶,请确保它位于安全的位置,并且您正在实施对象版本,以便更轻松地从最后一个已知的良好状态中恢复文件。

  采取基于风险的方法来应对数据安全

  最后,也是最关键的是,组织需要发现并对每段数据进行分类,以便了解哪些资产需要采取行动以及何时采取行动。进行全面扫描并确保对结构化、半结构化和非结构化数据进行准确分类,有助于识别迫在眉睫的风险与可以降低优先级的风险。除了勒索软件保护外,身份管理和数据暴露控制对负责任的人工智能部署同样重要。迅速采用生成式人工智能的组织往往忽视了这些系统对敏感数据的访问范围。确保人工智能系统只能对公司数据的授权和适当安全版本进行推理是最重要的,特别是随着监管格局的不断发展。这种全面的数据安全方法既解决了传统威胁,也解决了新兴的人工智能相关风险。

  前所未有的威胁需要新的安全标准和控制

  安全界面临着前所未有的威胁,需要私营企业和政府机构之间采取协调行动。最近的攻击凸显了数据保护标准的严重差距,特别是在人工智能系统方面。人工智能加速了业务运营,但引入了新的风险。敏感数据在训练期间可能会渗入人工智能模型,在推理过程中可能会从敏感模型中渗出;一旦模型被训练,管理其输出是非确定性的。这些人工智能安全挑战与上面讨论的身份和数据控制直接相关。如果没有充分的访问管理和数据分类,组织就无法阻止未经授权的数据进入人工智能培训管道并通过推理被曝光。

  当前不断变化的监管环境增加了复杂性。最近对网络安全行政命令的更改破坏了政府和行业之间建立的合作框架。这一政策转变影响了组织如何开发安全的人工智能系统和解决我们国家安全基础设施中的漏洞。有一点是肯定的:我们面临的威胁——从民族国家行为者到日益复杂的网络犯罪集团——不会等待政治共识。与勒索软件保护一样,无论监管不确定性如何,组织都必须采取积极主动的措施来保护其人工智能系统。

  前瞻性企业和技术提供商必须立即采取行动,以加强其安全控制。在部署人工智能系统后建立保护机制的成本要高得多,并且会让组织暴露出来。身份治理和数据分类的相同方法可以防止像Codefinger这样的威胁,为安全的人工智能实施提供了基础。今天实施的安全措施将决定组织抵御未来威胁的程度。

  Pranava Adduri是Bedrock Security的首席技术官。

0
相关文章