新闻稿

亚博国际官网登录

康涅狄格州斯坦福德市,2023年6月29日

Gartner识别四个关键领域法律领导人解决人工智能监管

法律和合规领导人应该准备组织对新兴监管AI

各种全球议员提议法规和指导大语言模型(LLM)工具,如ChatGPT和谷歌吟游诗人,Gartner inc .)已经确定了四个关键领域总法律顾问(GC)和法律领导人来解决。

“合法领导人可以检查的各种提议重叠帮助高层领导和董事会准备监管变化发展企业人工智能策略劳拉·科恩说,“校长,高级研究咨询公司。“尽管法律在许多地方可能不生效,直到2025年,法律领导人可以开始等待完成时调节成形。”

Gartner专家发现了四个行为为合法领导人创造人工智能监督,使他们的组织前进,等待最后的指导:

嵌入AI使用的透明度
“透明度对人工授精技术正成为提案的一个关键原则在世界范围内,“科恩说。“合法领导人需要考虑他们的组织将如何弄清楚任何人类与人工智能交互时。”

例如,使用人工智能在营销内容和招聘过程中,法律领导人可以通过更新通知和隐私条款的条件在他们公司的网站上,以反映AI使用。然而,最好建立一个单独的部分组织的在线“信任中心”。Or the organization could post a point-in-time notice when collecting data that specifically discusses the ways the organization uses AI. Legal leaders could also consider updating their supplier code of conduct with a mandate for notification if a vendor plans to use AI.

确保风险管理是连续的
“GC和法律领导人应该参与跨职能努力实施跨生命周期的风险管理控制任何高风险的人工智能工具,”科恩说。“这一种方法可能是一个算法文档决策影响评估(AIA),演示了尽职调查,并将减少现在和未来监管风险和其他责任。”

除了法律,GC应该涉及信息安全、数据管理、数据科学、隐私、合规、和相关业务部门得到更全面的风险。因为法律领导人通常不拥有他们嵌入控制的业务流程,咨询相关业务单位是至关重要的。

建立治理,包括人类的监督和问责
“一个风险,利用LLM工具是非常清楚的是,他们可以得到非常错误的听起来虽然表面上似是而非,”科恩说。“这就是为什么监管机构要求人类监督应该提供内部检查AI的输出工具。”

公司可能希望指定一个AI点人来帮助技术团队设计和实现人类的控制。取决于哪个部门主办AI倡议,这个人可能是一个团队成员与深功能知识,一个职员的安全或隐私团队,或者,如果有集成与企业搜索、数字工作领导。

GC还可以建立一个数字道德顾问委员会的法律、操作,营销和外部专家帮助项目团队管理伦理问题,然后确保董事会的任何发现。

防范数据隐私风险
很明显,监管机构希望保护个人数据隐私AI时使用,”科恩说。“这将是关键的合法领导人掌握禁止任何新实践,比如生物监测在公共场所”。

法律和合规领导人应该通过privacy-by-design原则应用到人工智能管理隐私风险计划。例如,需要隐私影响评估在项目的早期或指定隐私团队成员开始评估隐私风险。

与公共版本的LLM工具,组织应该提醒员工,他们进入的任何信息可能成为一个训练数据集的一部分。这意味着敏感或专有信息用于提示用户可能会发现在反应以外的业务。因此,它是至关重要的建立指导方针,通知员工的风险,并提供指导如何安全地部署这样的工具。

Gartner在报告中客户可以获得更多的见解准备AI规定:4个关键领域为GC地址。Nonclients可以看网络研讨会行政领导,确定生成AI的机遇和风险。

Gartner的法律风险和合规的领导人
Gartner法律、风险和合规领导人提供专家指导和工具来帮助领导人在法律、风险、审计和合规部门更有效地管理日益复杂的风险环境和构建新一代的功能。在和额外的信息是可用的gartner.com/en/legal-compliance。遵循新闻和更新LinkedIn推特。参观Gartner法律和合规编辑部亚博国际官网登录为更多的信息和见解。

媒体联系人


最新版本

关于Gartner

Gartner Inc .(纽约证券交易所:它)提供了可操作的、客观的了解高管和他们的团队。我们的专家指导和工具使更快、更明智的决定和更强的性能在一个组织的关键任务的优先级。要了解更多,请访问gartner.com

Baidu