您的位置:首页> 金融科技> 关注人工智能技术法律合规风险

关注人工智能技术法律合规风险

来源:中国银行保险报时间:2025-01-21 08:08

□张宇勍 王瑶

人工智能技术在金融行业的应用,深刻改变了金融服务业态。但其跨多领域的复合性也带来法律合规风险。为助力理财公司数字金融稳健发展,为人民群众带来更高效、便捷的金融服务,笔者拟对人工智能的法律合规风险进行分析,并给出防范建议。

健全训练数据管理

人工智能需要通过多种方式获取基础训练数据,数据及材料来源可能存在如下风险:一是第三方知识产权侵权风险。二是个人信息权益侵权风险。三是因爬虫手段导致的不正当竞争及刑事法律风险。四是数据质量差导致的数据偏见。

对此,建议健全训练数据合规管理:合法使用爬虫等技术手段;建立训练数据安全审查机制,参考《生成式人工智能服务安全基本要求》中的数据管理规范,采取关键词、分类模型、人工抽检等方式,充分过滤数据中的违法不良信息,从源头避免违法不良信息与内容的生成。

加强算法管理

算法其运行原理和底层逻辑不透明,使用者只能被动接受输出结果,从而存在下述风险:一是算法本身存在逻辑错误、设计缺陷,输出结果难以理解或验证,可能给使用者造成误导;二是过度依赖历史数据而无法适应市场快速变化,使投资者错失机会或遭受损失;三是算法技术壁垒造成服务方与投资者之间信息不对称。

对此,建议加强算法管理:建立算法模型评价机制,提升算法透明度,避免算法技术风险,加强风险管理及人工介入能力,加强算法伦理建设与内容管理机制等。

强化生成内容管理

生成式人工智能具有极强的数据分析和信息编辑筛选能力,能在极短时间内根据用户提问输出答案。但其生成过程本质是一种经验再现,即通过对前端语料库进行筛选进行简单预测,这一本质使其无法保证生成内容的准确性,对于知识性内容可能出现事实错误,而这些虚假内容可能用于影响公众意见,从而引发舆论风险。

对此,建议强化对生成内容的合规管理:一是对人工智能生成内容进行严格审查。尽量确保在发布基于生成式人工智能的内容前进行校验、核实、评估及确认。二是健全生成内容治理机制。依法设立辟谣机制,过滤机制,设立违法和不良信息识别特征库。发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,并向有关主管部门报告。三是加强知识产权管理。做好知识产权合规核查工作。

加强数据安全

金融机构员工掌握大量敏感数据和客户个人信息,可能因业务开展需要向人工智能工具输入此类敏感数据。部分人工智能工具的服务协议中会约定人工智能技术提供商有权使用用户输入数据以维护升级技术,或用于模型训练数据,从而导致泄密。

对此,建议构建数据安全管控体系,加强数据全生命周期的安全防护能力,定期审查和更新安全策略,制定数据安全应急预案,加强风险监测。对于员工,对其使用记录系统留痕,对其处理的所有信息进行分类,为每一类信息制定相应保护措施;明确规定禁止输入人工智能工具及在输入人工智能工具前需进行去标识化和匿名化处理的信息类别,建立对敏感文字、数据、文件的实时筛查和警报机制。对于用户,通过用户协议、隐私政策或其他形式提示其在使用人工智能时避免输入敏感数据。

及时完成算法备案等手续

根据《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法》等监管规定,人工智能服务方须完成相关算法的安全评估、备案、报告等监管手续。如未履行上述义务,则可能受到警告、通报批评,责令限期改正,甚至被责令暂停或者终止提供服务等处罚措施。

目前需要备案的算法,主要包括面向个人用户、提供具有舆论与社会动员属性互联网信息服务功能的算法。对于金融行业,目前已完成备案的算法主要集中在金融财经与市场资讯、投顾平台、智能客服文本生成、虚拟数字人合成和以文生图等场景。如果人工智能服务方是基于第三方基础模型提供服务的,应使用已经主管部门备案的基础模型。

(作者单位:信银理财有限责任公司法律合规部)