您的位置:首页> 地方> 记者观察:警惕生成式AI潜在风险

记者观察:警惕生成式AI潜在风险

来源:中国银行保险报时间:2024-04-15 15:05

中国银行保险报网讯(记者 马翀)

当前,生成式AI对各行各业产生了巨大影响,金融业也不例外。大模型的技术应用,为金融行业应用人工智能技术带来了新的范式。但不容忽视的是,生成式AI有可能带来科技伦理、模型治理、数据隐私安全等问题,对此应引起高度重视。

金融机构在决定研发生成式AI系统时就要思考潜在的各类风险,严格遵循数据安全法、知识产权法、个人信息保护法等法律法规及金融监管部门的有关规定,确保不踩“红线”、不越底线。此外,金融机构应利用先进的技术手段,对生成式AI应用过程中可能出现的风险进行实时监测和预警。例如,建立风险识别模型,对生成式AI系统的输出结果进行实时分析,确保能够尽早发现异常或潜在风险。同时,金融机构还应建立应急预案,对可能出现的风险进行及时处置,防止风险扩大。

生成式AI在提供便利的同时存在数据泄露、数据滥用等信息安全风险,或将导致银行业务和用户数据被窃取、篡改或泄露。对此,金融机构可“双管齐下”,防范潜在的信息安全风险。在技术层面,金融机构研发部门应加强技术创新,积极运用技术手段防范数据泄露风险;在收集用户数据时,注重数据模型的设计和使用,防止算法层面引发的数据安全与隐私风险。在制度规范层面,应建立起完善的人工复核机制,对于自动生成的人工智能模型,金融机构应在固定节点加入人工审批的流程,起到兜底作用。

防范生成式AI潜在风险需要金融机构加强人才培养和生成式AI知识普及。金融机构应加大对生成式AI技术人才的培养力度,提升员工对生成式AI的认知和应用能力。同时,金融机构还应加强宣传普及工作,提高全体成员对生成式AI的了解和认识,增强风险防范意识。

防范生成式AI潜在风险仅靠金融机构自身还不足以应对,需要各方通力合作。政府和金融监管部门应加强对生成式AI的监管力度,制定和完善相关法律法规,明确AI技术的法律责任和权益保护。2023年7月,国家互联网信息办公室等七部门联合发布《生成式人工智能服务管理暂行办法》,对生成式人工智能服务提供者和使用者提出了要求。此外,针对生成式人工智能服务技术特点,《生成式人工智能服务管理暂行办法》完善了与创新发展相适应的科学监管方式,促使监管部门采取更精细化的管理措施,实现技术创新与监管创新的同步演化、协同共振,这对促进生成式人工智能健康发展和规范应用具有重要指导意义。同时,我国政府部门还可以加强与国际社会的合作与交流,共同应对生成式AI带来的全球性挑战。