如何让人工智能安全有效

以下是应用严格的人工智能信任、风险和安全管理(AI TRiSM)的组织如何以及为什么将更有价值的人工智能模型投入生产。

你准备好了吗人权法案?美国最近的蓝图旨在保护社会免受有害人工智能的侵害,提醒所有人工智能模型的开发者和用户,他们需要在其人工智能模型和策略中建立保障措施。需要对AI TRiSM采取严格的方法。

Gartner将AI TRiSM定义为支持人工智能模型治理、可信度、公平性、可靠性、稳健性、有效性和隐私。它包括为客户和企业提供的模型可解释性、可解释性、隐私、模型操作和抗对抗性攻击的解决方案、技术和流程。

下载电子书:2023年Gartner十大战略技术趋势详细指南

“IT领导者必须花费时间和资源来支持AI TRiSM。Gartner杰出副总裁分析师阿维娃·利坦(Avivah Litan)表示,那些做到这一点的人将在采用、业务目标以及内部和外部用户接受度方面取得更好的人工智能成果。“人工智能威胁和妥协(恶意或良性)是持续的,不断发展的,因此AI TRiSM必须是持续的努力,而不是一次性的演习。”

为什么AI TRiSM是一个趋势技术

Gartner预计,到2026年,在人工智能透明度、信任和安全方面运营的组织将看到他们的人工智能模型在采用、业务目标和用户接受度方面实现50%的改善。Gartner还预测,到2028年,人工智能驱动的机器将占全球劳动力的20%,占所有经济生产力的40%。

但Gartner的调查结果表明,组织也部署了成百上千个IT领导者无法解释或解释的人工智能模型。

没有管理能力的组织人工智能的风险更有可能经历负面的人工智能结果违反.模型不会像预期的那样运行,并且会出现安全和隐私故障、财务和声誉损失,并对个人造成伤害。错误的人工智能也会导致组织做出糟糕的商业决策。

立即下载:2021-2023年新兴技术路线图

AI TRiSM含义和操作

人工智能法规正在增加,但即使在强制实施保护之前,实施确保信任、透明度和消费者保护的实践也很重要。IT领导者需要应用新的AI TRiSM功能,以确保模型的可靠性、可信度、隐私性和安全性。

不要等到模型投入生产后才应用AI TRiSM。这只是给整个过程带来了潜在的风险。IT领导者应该熟悉各种妥协形式,并使用AI TRiSM解决方案集,以便正确保护AI。

AI TRiSM需要跨职能团队一起工作。这包括来自法律、合规、安全、IT和数据分析团队的员工。如果可能,成立一个专门的团队,如果不可能,成立一个工作组,以获得最好的结果。确保每个AI项目都有适当的业务表示。

下载2023年CIO议程:4种方法确保你的技术投资支付数字红利

好处包括改善他们的组织通过使用人工智能而获得的业务成果,而不仅仅是遵守法规。

简而言之:

  • AI TRiSM功能确保模型的可靠性、可信度、安全性和隐私性。

  • 为了在人工智能采用、实现业务目标和用户接受度方面获得更好的结果,组织需要管理人工智能信任、风险和安全。

  • 将AI TRiSM视为适当保护AI的解决方案集。

Avivah Litan他是Gartner Research的杰出副总裁分析师,目前是ITL AI团队的成员,该团队涵盖AI和区块链。她擅长区块链创新的各个方面,以及人工智能信任、风险和安全管理。Avivah在网络安全和欺诈的许多方面都有很强的背景,包括人工智能与这些领域的集成。

体验CIO和IT高管会议

加入您的同行,在高德纳会议上揭开最新的见解。

Gartner使用条款和隐私政策。< / > "> 登录您的账号访问您的研究和工具" class="eloqua-text"> 登录您的账号访问您的研究和工具" class="optin-text">
Baidu