您的位置:首页> 科技> 用技术对抗“技术”

用技术对抗“技术”

来源:中国银行保险报时间:2023-06-15 07:10

□记者 苏洁

金融行业信息化建设起步早,已成为人工智能应用最佳领域之一,然而,技术创新也带来了风险,如最近社会较为关注的AI诈骗。技术发展有着两面性,近年来,随着科技进步,金融反欺诈技术也在不断升级。

攻击和防御技术的博弈

工商银行软件开发中心高级专家刘承岩介绍,当前AI欺诈的具体攻击手法主要用在人脸深度伪造(“AI换脸”)和语音合成伪造技术,这类伪造技术对于相关技术领域专业人士而言其实并不陌生,相关的防御对抗技术已有多年的积累。但随着AI技术的快速发展,这类伪造技术的使用门槛不断降低而伪造效果却愈发逼真。

与此同时,刘承岩指出,攻击技术和防御技术一直处于持续的博弈之中,二者在螺旋式迭代对抗的过程中不断演进升级,防御技术存在被攻破的可能。因此,银行等金融机构在使用人脸识别、声纹识别等人工智能技术时,除了采取相应的防御检测技术外,还会采用短信认证码、账户密码等方式进行多重身份认证,不会将客户的生物特征作为唯一身份认证手段,以降低各类AI合成技术的欺诈风险。

索信达控股首席运营官宋爱华认为,随着人工智能、大数据等技术与金融业务的深度融合,给金融业务带来了新的风险挑战,进一步增加了金融风险的复杂性、隐蔽性、突发性,这对金融科技提出了更高要求。

“对于人工智能技术的发展,我们确实需要认识到其两面性。特别是对于银行等金融机构来说,金融安全与技术创新的平衡始终是大家关注的焦点话题。”刘承岩表示,近年来,金融机构主动运用人工智能技术提升数字化服务水平,在对客服务、风险管控等多个业务领域初见成效。但同时必须看到,在技术创新落地过程中,也会带来新的业务安全问题,例如“AI换脸”带来的欺诈风险、人工智能算法歧视带来的科技伦理争议等。为此,金融机构必须采取有效措施应对AI技术对金融安全带来的影响。

如何平衡技术创新与风险

《中国银行保险报》记者在采访中发现,为了对抗AI欺诈风险,金融机构和金融科技企业都在积极研发相关技术以对抗AI欺诈等风险。

以工商银行的人脸识别技术应用为例,在将人脸识别技术定位为一种身份认证辅助手段的前提下,通过集成动作活检、静默活检、唇语活检、光线活检和硬件辅助活检(红外双目、3D结构光)等业界主流活体检测技术,形成完备的人脸活体检测安全体系,抵御各类人脸假体攻击。

在保险领域,AI欺诈风险同样是行业关注的话题。力码科技联合创始人兼执行董事马经纬表示,“保险客户隐私保护、数据质量和完整性、人工智能与人类协作等问题,行业都非常关注。在此背景下,我们建立了数字化风控平台,能够识别出潜在的欺诈风险(高佣套利风险、渠道续期风险、集中退保风险、异常理赔风险、机构经验模式风险等多个风险场景),从而实现以技术对抗技术。”

对于金融科技公司来说,将AI技术应用到电信网络诈骗为代表的新型网络犯罪,对金融机构与金融科技公司的反诈工作提出了更高的技术要求。信也科技消费者权益保护委员会相关负责人介绍,信也科技自主研发了一套全流程拦截、多维度防控的反诈矩阵式风控体系,可针对各类新型诈骗场景快速迭代进行诈骗拦截,快速感知外部诈骗态势、覆盖各类型诈骗陷阱。同时,针对金融反欺诈场景研发了图联邦技术FateGraph,不仅解决了图数据在不同单位和机构之间的孤岛问题,也扩展了隐私计算的应用范围。

随着AI大模型的逐渐成熟,未来金融领域AI应用风险成为行业关心的话题。如何平衡技术应用与风险防范?

宋爱华建议,对于金融行业来说,一方面,随着技术的不断创新应用,需要构建新的风控流程和监管体系;另一方面,金融行业对风险管理和安全性要求非常高,因此,在应用人工智能技术时,应把安全性和可解释性摆在重要位置,加强模型和算法风险管理制度,规范技术应用,针对不同业务场景下的数据集特点进行算法层面的分析,寻找模型精度与解释性之间的平衡。

“人工智能技术模型可以分为传统机器学习模型、传统深度学习模型和大模型三大类,不同类型有各自的适用场景。”刘承岩表示,大模型作为人工智能技术的一种,同样存在可解释性、算法公平性等各种技术“通病”,建议金融行业短期不要将大模型直接对客户使用,可优先将大模型作为各类业务助手,采用大模型“智能生成+人工核验”修正方式使用;金融机构要保证模型的输出和决策是可解释的,以更好地理解模型背后的逻辑,及时检测模型中可能存在的问题,避免违反相关监管规定;金融领域涉及的大部分数据敏感性较高,在使用大模型时,金融机构必须采取相应的数据隐私保护措施;数据集的分布偏差同样容易导致大模型算法本身产生偏差,金融机构要注意保持数据公平性、客观性以及算法的多样性;此外,金融机构需要加强内部风控,建立完善的风险控制体系,对大模型的应用进行全闭环、全覆盖监控。