您的位置:首页> 科技> 记者观察:人工智能衍生风险不可忽视

记者观察:人工智能衍生风险不可忽视

来源:中国银行保险报时间:2024-03-06 07:24

□记者 苏洁

随着Sora的问世,人工智能持续升温。尤其是生成式人工智能,被业内看好,并认为其将在不久的将来为各个行业带来颠覆性改变。

经过过去一年的“大炼”模型,我国已经发布了200多款大语言模型。因此,对于金融机构来说,大语言模型比较容易建立,可以直接购买、共同开发或自主研发,目前主要的挑战在于如何以最大的影响和最小的风险应用它们。也就是说,以Sora和ChatGPT为代表的人工智能虽然能为行业带来创新和不一样的客户体验,但尚存安全和伦理等问题。对此,金融业集成生成式AI需遵循以下原则:

第一,正确认识生成式AI的作用。人工智能并非全能,创造性产品创新任务是生成式人工智能的专业领域,利用这项技术能带来60%的效率提升。因此,金融机构在制定生成式人工智能方案时,要全面客观评估机构内部业务创新属性以及任务类型基础,而不是追求通过生成式AI带来100%的自动化。

第二,模型参数并非越大越好。模型参数规模越大,意味着神经网络的复杂度越高、评估的分数越高。但在实际应用中,大模型的利用效率并不高,有数据显示,普遍低于50%的利用率。因此,在实际应用中,金融机构需要根据自身数字成熟度、资源可用性和终端生成式AI应用程序的复杂性来选择规模适当的大模型。

第三,关注技术先进性和业务可持续性。金融机构对其客户非常了解,但也受到严格的监管。目前,生成式AI在金融业的机会并不是面向消费者的工具,它更多的是关于如何综合银行现有的大量信息作出更明智的决策。金融业应用大模型技术尚处于探索应用的早期,金融机构都在同一起跑线上。对此,金融机构应依据自身业务需求,将其作为内容创造者,可以用它来获得更好的资源管理,作为后台解决方案。

第四,遵循法律法规。金融业的一大核心功能就是风险防控和管理。因此,金融业大模型的开发者实际上肩负着重要的监管职责。这些开发者不仅需要推动大模型技术的创新与发展,还要关注潜在的网络安全新风险和道德伦理问题,关注数据隐私、知识产权、信息安全等众多法律法规,确保技术应用符合社会规范和法律法规。