新闻稿

亚博国际官网登录

康涅狄格州斯坦福德市,2023年5月18日

Gartner指出六ChatGPT法律和合规领导人必须评估风险

法律和合规领导人应该评估他们的组织对这些风险敞口和建立适当的措施来引导使用ChatGPT负责

法律和合规领导人应该解决他们组织的六个具体ChatGPT风险敞口,以及护栏建立确保负责任的企业使用生成的人工智能工具,根据Gartner Inc .)

”生成的输出ChatGPT和其他大型语言模型(LLM)工具容易几个风险,”说罗恩·弗里德曼高级主管分析师Gartner法律与合规实践。“法律和合规领导人应该评估如果这些问题提出一个材料需要他们的企业和风险控制,企业内部及其扩展企业的第三和n政党。如果不这样做,就有可能使企业合法的,声誉和金融后果。”

六个ChatGPT风险法律和合规领导人应该评估包括:

风险1 -捏造和不准确的答案
与ChatGPT也许最常见的问题和其他LLM工具倾向于提供不正确的信息——虽然表面上似是而非的。

“ChatGPT也容易“幻觉”,包括伪造的答案是错误的,不存在法律和科学引文,”弗里德曼说。“法律和合规领导人应该问题指导,要求员工审查ChatGPT生成任何输出的准确性、合理性和实际效用之前被接受。”

2 -数据隐私和机密性风险
法律和合规领导人进入ChatGPT应该意识到任何信息,如果聊天记录不是残疾人可能成为一个训练数据集的一部分。

“敏感、专有或机密信息用于提示可能被纳入反应用户在企业之外,”弗里德曼说。“法律和合规需要建立合规ChatGPT使用框架,并明确禁止进入敏感组织或个人数据到公共LLM工具。”

3 -风险模型和输出偏差
尽管OpenAI努力减少偏见和歧视在ChatGPT,已知的情况下这些问题已经发生,可能持续尽管目前由OpenAI积极努力和其他以减少这些风险

“完全消除偏见可能是不可能的,但法律和合规需要掌握规律的AI偏见,并确保他们的指导是兼容的,”弗里德曼说。“这可能涉及到与主题专家合作,确保输出是可靠的和与审计技术功能设置数据质量控制”。

4 -知识产权(IP)和版权风险的风险
ChatGPT特别是互联网上大量的训练数据可能包含受版权保护的资料。因此,它的输出有可能违反了版权或知识产权的保护。

“ChatGPT并不提供源引用或解释它的输出是如何生成的,”弗里德曼说。“法律和合规领导人应该热心关注任何修改著作权法,适用于ChatGPT产出和要求用户审查他们生成任何输出,以确保它不侵犯版权或知识产权。”

风险5 -网络欺诈风险
糟糕的演员已经大规模滥用ChatGPT产生虚假信息(例如,假的评论)。此外,使用LLM的应用程序模型,包括ChatGPT,也容易受到提示注射,恶意的黑客技术对抗的提示是用来欺骗模型执行任务,它不是用于如编写恶意代码或开发网络钓鱼网站,像著名的网站。

“法律和合规领导人应该与业主协调网络风险探索是否或何时发行备忘录公司网络安全人员在这个问题上,”弗里德曼说。“他们也应该进行审计的尽职调查来验证质量的信息来源。”

风险6 -消费者保护风险
失败的企业向消费者披露ChatGPT使用(例如,客户支持聊天机器人)的形式运行的风险失去客户的信任和被指控不公平做法在各种法律。例如,加州chatbot法律要求在某些消费者互动,组织必须披露清晰而明显,消费者与机器人交流。

“法律和合规领导人需要确保他们的组织的ChatGPT使用符合所有相关法律法规,和适当的披露了客户,”弗里德曼说。

Gartner客户机可以阅读更多快速的回答:法律和合规领导人应该知道ChatGPT风险?

Nonclients能学到更多5公司治理的趋势在2023年影响董事会的监督作用。

Gartner的法律风险和合规的领导人
Gartner法律、风险和合规领导人提供专家指导和工具来帮助领导人在法律、风险、审计和合规部门更有效地管理日益复杂的风险环境和构建新一代的功能。额外的信息是可用的88亚博 gartner.com/en/legal-compliance。遵循新闻和更新LinkedIn推特。参观Gartner法律和合规编辑部亚博国际官网登录为更多的信息和见解。

媒体联系人


最新版本

关于Gartner

Gartner Inc .(纽约证券交易所:它)提供了可操作的、客观的了解高管和他们的团队。我们的专家指导和工具使更快、更明智的决定和更强的性能在一个组织的关键任务的优先级。要了解更多,请访问gartner.com

Baidu