人工智能(AI)是一个快速发展和扩展的领域,为各个部门和领域提供了巨大的利益和机会。然而,人工智能也对安全、隐私、道德和信任构成了重大挑战和风险。因此,必须建立并遵循安全和负责任地开发和使用人工智能系统的标准和实践。
国际标准化组织(ISO)是一个全球机构,为包括人工智能在内的各个领域和行业制定和发布自愿标准。ISO与国际电工委员会(IEC)合作,成立了一个信息技术联合技术委员会(JTC 1)和一个人工智能小组委员会(SC 42)。这些委员会负责创建和维护人工智能的标准和指导方针,涵盖术语、概念、架构、可信度、治理和安全等各个方面。
在本文中,我们将提供一些ISO人工智能安全标准的目录。这些标准旨在为解决人工智能系统的安全威胁和故障提供指导和建议,并确保与人工智能相关的数据、流程和应用程序的安全。
ISO/IEC 27090:网络安全-人工智能-解决人工智能系统安全威胁和故障的指南
该标准为组织在整个生命周期中解决人工智能系统中的安全威胁和故障提供了指导,并说明了如何检测和缓解此类威胁。本标准中的指南旨在为组织提供信息,帮助他们更好地了解安全威胁对人工智能系统的后果,以及如何实施安全措施和控制来预防、检测和应对此类威胁。本标准适用于所有类型和规模的组织,包括开发或使用人工智能系统的公共和私营公司、政府实体和非营利组织。
ISO/IEC 27050-4:信息技术-安全技术-电子发现-第4部分:电子发现安全指南
该标准为电子发现的安全提供了指导方针,这是出于法律或监管目的识别、保存、收集、处理、审查、分析和生成电子存储信息(ESI)的过程。本标准中的指南涵盖了电子发现的安全方面,如安全政策、角色和责任、风险评估、安全控制、安全事件和审计。该标准还解决了在电子发现中使用人工智能的安全挑战和影响,例如数据保护、数据质量、数据完整性、数据来源、数据保留和数据处置。
ISO/IEC 23894:信息技术和人工智能中的风险管理
该标准根据ISO 31000的原则:风险管理-指南,为管理与人工智能系统相关的风险提供了一个框架和流程。本标准中的框架和流程有助于组织识别、分析、评估、处理、监测和沟通与人工智能系统相关的风险,以及建立和维护人工智能系统的风险管理文化和风险管理政策。该标准还为将框架和流程应用于不同类型和领域的人工智能系统提供了指导和示例。
ISO/IEC 38507:信息技术-IT治理-对组织应用人工智能的治理的影响
该标准根据ISO/IEC 38500的原则,为组织使用人工智能提供了指导:信息技术-组织的IT治理。本标准中的指南有助于组织确保其使用人工智能符合其目标、战略、价值观和政策,以及法律、道德和社会规范和期望。该标准还为将治理原则和治理模型应用于人工智能系统的不同类型和领域提供了指导和示例。
结论
人工智能安全的ISO标准对于开发或使用人工智能系统的组织来说是重要和有用的,因为它们为解决人工智能系统中的安全威胁和故障以及确保与人工智能相关的数据、流程和应用程序的安全提供了指导和建议。ISO人工智能安全标准还有助于组织管理使用人工智能的风险和治理影响,并遵守人工智能的法律、道德和社会要求和期望。