如何让人工智能值得信赖

专制政权正在努力开发人工智能(AI)系统,以控制人口和压制异见。如果这些努力取得成功,政治抗议将成为过去的感伤遗迹,在走上街头之前就被镇压了。

人工智能在企业中也存在不那么戏剧性但严重的风险。如果不正确的人工智能信用评分阻止消费者获得贷款怎么办?或者对自动驾驶汽车的AI模型的攻击导致了致命事故?或者,数据中毒是否会导致银行住房贷款审批偏向于某个群体?

了解更多:高德纳安全与风险管理峰会

在一个Gartner的调查例如,部署人工智能的公司安全和隐私是他们实施计划的最大障碍。针对人工智能的安全威胁并不新鲜,但企业用户还没有充分解决这些威胁。

“企业信任是关键企业AI成功说,“Avivah Litan, Gartner杰出副总裁分析师。“然而,更好地保护组织的安全和隐私标准和工具仍在开发中。这意味着大多数组织在威胁防御方面基本上只能靠自己。”

新型威胁需要新的应对措施

大多数针对普通软件的攻击也适用于人工智能。这意味着,减轻恶意黑客造成的损害的安全和风险管理解决方案,也可以减轻善意用户在人工智能环境中引入错误所造成的损害。保护敏感数据不受损害或不受偏见的解决方案也有助于防止由有偏见的模型训练引起的AI伦理问题。

人工智能带来了新的威胁。在AI训练阶段或AI模型运行时,故意或错误地“中毒”的数据可以操纵结果。查询攻击可能会试图确定AI模型的逻辑并改变其规则。训练数据或人工智能模型本身也可能被窃取。

高德纳建议在现有措施的基础上实施两个新的风险管理支柱,以减轻威胁和保护人工智能的投资

保护人工智能的措施,使其值得信赖

保护你的AI

在任何系统中改进安全性都比从一开始就将其构建起来要昂贵得多。人工智能系统也是如此。

利坦说:“不要等到不可避免的违约、妥协或错误损害或破坏了你公司的业务、声誉或业绩。”“这将使人工智能模型保持良好的表现,确保你的数据受到保护,并支持‘负责任的人工智能’,消除模型偏见、不道德的做法和糟糕的决策。”

15

高德纳安全与风险管理峰会

与全球领先的安全和风险管理领导者与Gartner专家建立敏捷的安全计划并交付业务价值。

Gartner使用条款和隐私政策。< / > "> 登录您的帐户 访问您的研究和工具

" class="eloqua-text"> 登录您的帐户 以访问您的研究和工具" class="optin-text">
Baidu