当前位置:首页 > 人工智能 > >

MLSecOps建立高效风险框架 重塑人工智能安全

MLSecOps建立高效风险框架 重塑人工智能安全
2023-12-06 16:23:02 来源:聚焦媒体网

  DevSecOps 的采用重塑了网络安全,但 DevSecOps 并不足以保证所有软件的安全。例如,人工智能 (AI) 和机器学习 (ML) 的加入给开发人员和企业网络安全团队带来了新的压力。

  与传统软件相比,机器学习引入了新的代码、新的数据结构和不同的开发实践。ML 开发生命周期的差异,加上基础模型和开源 ML 组件的庞大供应链,带来了新的风险。

  MLSecOps 旨在填补这些空白,并弥补 DevSecOps 的不足之处。正如DevOps演变为DevSecOps一样,MLOps也正在演变为MLSecOps。

  开始进化

  要构建一个更安全的 AI 驱动世界,首先要认识到组织必须对其 AI/ML 具有完全的可见性和可审计性,才能更好地保护其免受威胁。

  通过将保护扩展到 MLOps 实践,企业可以建立更好的内部保护措施,并将这些保护措施推广到供应链。他们还可以更好地管理供应链漏洞评估、ML 系统访问控制、数据使用和隐私、模型安全性、模型鲁棒性测试和其他关键任务。

  事实上,MLSecOps 结合了 DevSecOps 和 MLOps 的重要方面,它还引入了将协作和控制嵌入框架的方法。要想在 MLSecOps 上取得成功,必须将 AppSec 与 ML 团队联系起来,通过实施建立一致的方法和策略,并支持跨流程和工作流的持续集成和交付。

  虽然可以肯定地说 MLSecOps 是 DevSecOps 的表亲,但它在重要方面也有所不同。MLSecOps 应用程序包括代码、数据、模型工件以及 ML 系统和工具。目标是在整个 ML 开发生命周期中注入安全性。

  MLSecOps 的五个领域

  MLSecOps 由五个核心领域组成,它们共同建立了一个高效的风险框架。

  1. 供应链脆弱性

  AI 应用程序依赖于机器学习模型,机器学习模型是基础架构中的一种新型资产。与笔记本电脑非常相似,这些模型由不同的数据、代码和其他文件资产组成,每个资产都受设备和用户的特定策略和权限的约束。这种元素的融合通常被称为模型的“供应链”。

  与常规软件的供应链类似,人工智能应用程序也容易受到各种漏洞的攻击。这些攻击包括数据中毒、提取客户的个人身份信息、执行恶意代码以及对基础设施发起拒绝服务攻击。

  为了增强安全性,将模型扫描程序、AI/ML 威胁源和专用 AI/ML 安全工具作为 MLSecOps 实践的一部分进行部署至关重要。

  2. 型号出处

  透明度、问责制和可信度不是流行语。识别模型内容、查看其整个历史记录并了解从开发和部署到公共使用的任何和所有更改的能力至关重要。

  难题的一个关键部分是机器学习物料清单 (MLBOM),它列出了系统中驻留的所有材料和组件。如果无法确定问题的确切性质并及时解决,可能会导致声誉受损、经济损失、罚款和监管机构发布的其他处罚。

  3. 治理、风险与合规 (GRC)

  数据、算法和其他 ML 内容最终可能会分散在容器、云和其他系统中,而组织却没有意识到存在问题。

  如果用于 AI 模型的任何输入涉及个人数据,则 AI 模型及其应用程序可能已经直接受到各种政府法规的约束,例如 GDPR 和《加州消费者隐私法》。因此,确保正确的数据在正确的时间驻留在正确的位置至关重要。

  这也意味着,迫切需要管理组织人工智能的监管风险。 它必须超越对传统数据管理的关注,并建立用于监控、测试和评估算法和整个 ML 模型的方法。

  MLSecOps 有助于发现更改的代码和组件,以及 AI 框架的底层完整性和合规性可能受到质疑的情况。

  4. 可信 AI:公正、公平、可解释

  AI 模型不应作为黑匣子运行。随着负责任的人工智能的形成,系统必须做出公平的决策,而不考虑种族、性别、年龄和其他个人特征。模型还必须避免道德冲突。

  MLBOM 可以帮助完成此任务。通过确切地了解机器学习模型中的内容,可以使 AI 可解释。MLSecOps 还可以通过链接 ML 框架的各个部分(标准、培训、安全最佳实践和控制)来提高信任度和透明度。

  5. 对抗性机器学习

  了解和防御对机器学习模型的恶意攻击也至关重要。这些攻击可以采取多种形式,例如操纵输入数据以导致模型做出不正确的预测,或操纵模型本身以降低其准确性或导致其以意外方式运行。

  MLSecOps 框架的一部分是对抗性 ML。对抗性机器学习的目标是开发技术和策略来检测和防御这些攻击,并提高机器学习模型和系统的鲁棒性和安全性。

  使用这种方法的组织可以实时检测、缓解和解除攻击。它还可以利用生成模型来创建合成训练数据,在训练过程中加入对抗性示例,并开发处理嘈杂输入的强大分类器。

关键词:

免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。

投诉邮箱:Email:133 46734 45@qq.com

相关新闻