2020年3月18日
2020年3月18日
贡献:梅根·Rimol
理解用例和监督的最佳实践,无监督和强化了人工智能中机器学习计划。
从欺诈检测、图像识别到自动驾驶汽车,机器学习(毫升)和人工智能(AI)将彻底改变整个行业。毫升和AI改变我们与数据交互的方式和使用它,使数字增长。
毫升是人工智能的一个子集,使机器能够开发解决问题的模型通过识别数据中的模式,而不是利用显式编程。学习是指培训过程——算法识别数据中的模式,然后使用这些模式来调整模型,旨在提供一个更准确的输出。毫升可以监督,无监督或钢筋。
“大多数当前的经济价值获得毫升是基于监督学习用例,”说Saniye AlaybeyiGartner分析师,高级主管。“然而无监督学习可能更适合某些问题——例如,当目标是集群实体和带安全标签的数据不可用。强化学习企业部署仍然有限,但其优越的精度和目标对未来的承诺”。
Alaybeyi检查中使用的三种类型的ML今天企业的人工智能程序,每一个可以解决的业务问题。
到2022年,监督学习仍将ML的类型使用大多数企业IT领导人。监督学习是有效的在许多业务场景,如欺诈检测、销售预测和库存优化。
监督学习通过喂养已知历史数据输入和输出到ML算法。在每个步骤中,每一对输入输出处理后,该算法改变了模型创建一个输出尽可能接近期望的结果。
举例来说,一个模型可以从成千上万的银行交易,美联储数据与每个事务标记为欺诈。模型的识别模式,导致了“欺诈”或“不欺诈”输出,并随着时间的推移,学会更准确地预测给定的事务是否欺诈。
输入和输出数据可以来源于历史数据,通过模拟或人类数据标签。在案件非结构化数据,如图像、视频、音频或文本,某些属性或分类可以作为输出数据。监督学习可以用来作出预测,识别数据或分类。
对监督学习示例用例包括:
阅读更多:人工智能的CIO的指南
无监督学习是用来从数据建立预测模型,由输入数据没有历史标记反应。例如,一个客户或一组列表标记照片可以作为输入数据的无监督学习用例。
最常见的应用程序无监督学习的聚类和关联的问题。聚类生成一个模型组对象基于特定的属性,如颜色。协会将那些他们之间存在的集群和标识规则。
对无监督学习示例用例包括:
无监督学习还可以用于数据准备后续监督学习。这是通过识别模式或可用于分类的特性,压缩,降低数据的维数。
强化学习(RL)是基于期望奖励或惩罚坏的行为。而不是一个输入产生一个输出,该算法产生的各种输出和训练来选择正确的一个基于某些变量。因此,例如,一个计算机程序可以被训练来赢得游戏通过识别模式的行动导致它比其他球员得到更多的分。
虽然已经存在了几十年,RL最近看到了新的兴趣。RL比监督学习需要更少的管理,使其更容易与未标记的数据集。有一些最近RL成功实现在游戏世界。然而,实际RL仍然是新兴的应用程序。
最新的数据科学和ML平台没有原生RL功能,它需要比大多数企业提供更高的计算能力。现在,RL仅适用于区域,可以完全模拟,完全静止的或大量的相关数据是可用的。
例子对强化学习用例包括:
AI领导人必须发展更好的模拟能力之前RL可以进入大规模采用。识别潜在的RL的机会,但只有使用它在有限的场景。
加入你的同行在Gartner会议上公布的最新见解。
Gartner的客户推荐资源*:
企业的三种机器学习由Saniye Alaybeyi, et al。
*请注意,某些文件可能不会Gartner提供给所有客户。