来源:21世纪经济报道
媒体
2026-01-05 15:02:29
(原标题:专访清华周道许:AI于金融是一把“双刃剑”,如何握住剑柄?)
当前,人工智能正以前所未有的广度与深度,重塑金融行业的生态与逻辑。从风险定价到普惠信贷,从智能监管到生态构建,AI在赋能金融提质增效的同时,也带来了算法黑箱、数据鸿沟与新型系统性风险等深刻挑战。
2025年8月,国务院发布《关于深入实施“人工智能+”行动的意见》,明确指出要大力推进人工智能的规模化、商业化应用,推动其与金融等重点领域深度融合。2025年12月召开的中央经济工作会议又提出,要深化拓展“人工智能+”,并完善相关治理。而金融作为数据密集型行业,正是这一战略部署的关键落点。
在此背景下,金融业与人工智能将碰撞出怎样的火花?其发展的未来空间与治理边界何在?围绕上述问题,21世纪经济报道记者专访了清华大学五道口金融学院金融安全研究中心主任、北京市“十五五”规划专家咨询委员会专家周道许。
周道许认为,AI在金融领域的应用远未触达天花板,其角色正从辅助工具向协同乃至自主决策演进,并将推动行业从“经验驱动”迈向“数据驱动+算法驱动”的新范式。正如开车需要交通规则,“AI+金融”的发展也需要清晰、灵活、前瞻的监管框架。
以治理促发展,为“AI+金融”铺设更稳健的跑道
《21世纪》:中央经济工作会议连续四年提到人工智能,今年的提法是要深化拓展“人工智能+”,并完善相关治理。在您看来,金融业的人工智能治理具体应从哪些方面展开?
周道许:AI已从技术探索阶段进入系统性融合与规范发展的新周期。金融业作为数据与科技双密集型行业,其AI治理应围绕“可控、可信、可持续”展开。具体而言,可以从几个关键维度着手。
首要任务是构建“算法合规与透明”机制。AI决策不应成为“黑箱”,尤其在信贷审批、风险评估、投资建议等环节,需建立算法备案、解释性说明与第三方审计制度。事实上,自2024年起,我国已在部分金融机构试点“算法说明书”制度,要求关键AI模型具备可追溯、可解释、可验证的特征。
其次是数据治理与隐私保护。AI的效能依赖高质量数据,但数据滥用、泄露、歧视性使用等问题也相伴而生。这要求我们严格执行数据安全法和个人信息保护法,推动金融数据分类分级、授权使用与脱敏处理,并积极探索“数据可用不可见”的隐私计算技术在金融场景的落地。
再者,需要建立一套动态的风险监测体系。AI可能引发模型同质化导致的顺周期行为、舆情驱动下的算法共振等新型系统性风险。我们建议,监管机构与金融机构可共建“AI风险仪表盘”,以实时监测模型偏差、数据漂移、异常决策等关键风险指标。
最后,伦理规范与责任认定的完善至关重要。当AI决策造成损失时,责任主体如何界定?应推动建立“人类最终负责”的基本原则,明确AI开发、部署、使用各方的法律责任,并探索制定金融AI伦理指南,从源头上防止算法歧视与公平缺失等问题。
总而言之,治理不是限制发展,而是为“AI+金融”铺设更稳健的跑道。我们的理念正在从“先发展后治理”转向“边发展边治理”,甚至是“以治理促发展”。
《21世纪》:目前AI主要应用于金融行业优化流程和对外服务,其作用仍是辅助性的,尚无法取代人的决策。展望未来,您认为AI在金融业的应用还有哪些空间和潜力?
周道许:AI在金融领域的应用远未触达天花板。当前其角色确实是“辅助”,但未来将逐步走向“协同”甚至“自主”。这种演进可能会在几个方向上打开新的空间。
一个方向是从“流程优化”走向“决策重构”。目前AI多在客服、核保、反洗钱等流程环节发力,未来则可能在投研、资产配置、信贷定价等核心决策中扮演更关键角色。例如,基于多模态大模型的“金融大脑”,能够整合宏观经济、行业动态、企业舆情等多源信息,为投资决策提供全天候、多维度的智能支持。
另一个方向是从“单点应用”走向“生态协同”。AI将推动金融与产业、政务、社会数据的深度融合,构建“场景金融智能体”。比如,基于AI的供应链金融平台可以实时分析产业链上下游企业的经营数据,自动触发授信、放款、风控流程,从而实现金融活水的精准滴灌。
还有一个重要方向是从“被动响应”走向“主动预见”。AI在风险预警、欺诈识别、市场波动预测等方面已展现优势,未来将进一步实现“提前干预”。例如,利用时序预测模型和复杂网络分析,系统有望提前数周识别区域性金融风险的传导路径,为监管部门提供宝贵的决策预演时间。
金融的本质是“经营风险”,而AI的核心是“理解规律”。二者的深度结合,将推动金融从“经验驱动”迈向“数据驱动+算法驱动”的新范式。
直面新型风险,AI的深度应用需要“交通规则”
《21世纪》:从金融安全的专门视角看,AI的深度应用也为金融体系带来了前所未有的新型风险。当下哪些安全风险是最需要警惕的?对此您有何对策?
周道许:AI如同一把“双刃剑”,在提升效率的同时,也引入以下几类新型风险,亟需高度警惕:
一是模型风险与算法共振。如果多家金融机构采用相似的AI模型,可能导致“集体误判”,在极端市场环境下引发系统性踩踏。2023年某量化基金因算法同质化导致巨亏,已经敲响了警钟。对此,应推动模型多样性评估,鼓励差异化算法设计,并建立“算法压力测试”机制。
二是数据污染与对抗攻击。AI模型依赖训练数据,但这些数据可能被恶意注入噪声或伪造样本,导致模型决策失效。例如,欺诈分子利用生成式AI伪造人脸、语音、交易记录以绕过风控系统的情况已经出现。因此,必须积极发展对抗训练、异常检测、动态验证等“AI安全防御技术”。
三是伦理失范与公平缺失。算法可能放大历史数据中存在的偏见,导致“数字歧视”,例如对某些群体授信额度普遍偏低。应当通过“公平性审计”流程,结合公平性约束算法等技术手段与多元评审机制等制度设计,双管齐下予以应对。
此外,法律滞后带来的“监管灰色地带”也不容忽视。而AI的迭代速度远超法规更新节奏,建议积极推行“监管科技(RegTech)”,利用AI来监控AI,实现实时、精准、穿透式监管,并加快出台《人工智能法》及相关金融AI实施细则。
金融安全是国家安全的重要组成部分。在AI时代,我们必须树立“技术安全与金融安全一体化”的理念,构筑覆盖“技术—数据—模型—应用”的全链条防护体系。
《21世纪》:在兼顾AI赋能金融提质增效和风险可控的双重目标方面,金融监管能做什么?如何在“放”与“管”之间找到平衡?
周道许:平衡“放”与“管”,本质上是平衡“创新”与“安全”。近年来,我国金融监管在鼓励创新与防范风险方面已取得积极成效。未来,为实现创新与安全的动态统一,监管可以从以下几个方面进一步发力。
一方面,可以深化“监管沙盒”与创新试点。在可控环境中允许金融机构测试AI新产品、新模型,监管部门同步观察风险、积累经验、优化规则。北京、上海、深圳等地已开展多批金融科技沙盒试点,未来应扩大范围、深化场景,尤其在普惠金融、绿色金融、养老金融等战略领域鼓励探索。
另一方面,应积极发展“智能监管平台”。利用AI技术提升监管效能,实现“以技管技”。例如,构建“全国金融AI监管数据库”接入关键模型运行日志;开发“监管智能体”自动识别违规模式与风险传导路径;建设“跨市场风险预警系统”以打破数据孤岛。
同时,实施“分级分类监管”也至关重要。根据AI应用的风险等级、影响范围、技术成熟度,采取差异化的监管要求。对低风险AI工具(如智能客服)可采取备案制,对高风险AI系统(如自主交易模型)则需实行准入制与持续监测。
“放”不是放任,“管”不是管死。监管的目标是营造一个“鼓励创新、包容审慎、底线明晰”的发展环境。正如开车需要交通规则,“AI+金融”的发展也需要清晰、灵活、前瞻的监管框架。
重塑课程体系,培养驾驭AI的“战略型人才”
《21世纪》:当AI承担越来越多分析甚至决策工作时,金融行业对人才的要求也会进一步提高。作为一名高校科研人员,您认为高校金融人才培养路径应该如何与时俱进、作出对应的改变?
周道许:AI不会取代金融人才,但会取代不懂AI的金融人。教育的本质是面向未来,而未来属于那些懂金融、懂科技、更懂社会的复合型人才。因此,高校培养体系必须从“知识传授”转向“能力重构”。
具体而言,课程体系需率先重塑,强化“金融+科技+伦理”的三维融合。传统金融学课程需要嵌入Python、机器学习等实用模块,同时应开设“AI伦理”“算法治理”等前沿课程,以此培养学生科技向善的价值观。
在这一基础上,必须推动“产学研用”的深度融合。高校应与金融机构、科技公司、监管部门共建实验室与实训基地,鼓励学生参与真实AI金融项目,从需求分析、模型构建到合规评估,进行全程实战训练。
而最终的目标,是注重“批判性思维与创新领导力”的培养。AI擅长执行,但人类擅长提问、批判与创造。金融教育必须加强复杂问题求解、系统思维、跨界沟通等软技能的训练,从而培养出能够驾驭AI、而不仅仅是操作AI的“战略型人才”。
券商中国
2026-01-06
证券时报
2026-01-06
券商中国
2026-01-06
数据宝
2026-01-06
21世纪经济报道
2026-01-06
证券时报
2026-01-06
证券之星资讯
2026-01-06
证券之星资讯
2026-01-06
证券之星资讯
2026-01-06