纵观资讯 纵观资讯

当前位置: 首页 » 实时追踪 »

数字金融深水区:技术创新与风险防控“平衡”并进

转自:中国经营报

本报记者 蒋牧云 李晖 上海 北京报道

2025年全国两会期间,金融“五篇大文章”迎来“顶层设计”。

国务院办公厅3月5日发布《关于做好金融“五篇大文章”的指导意见》(以下简称《指导意见》),针对数字金融,《指导意见》指出:要综合运用数字技术手段,赋能金融机构经营决策、资源配置、业务改造、风险管理、产品研发等各环节,提升数字化经营服务能力。

技术是把双刃剑,技术创新在服务金融机构数字化转型的同时,也可能带来新的风险。上述《指导意见》即强调,应加强数据安全、网络安全、信息科技外包、算法模型、新技术运用等风险管理,推进金融业关键信息基础设施信息技术创新应用。

《中国经营报》记者注意到,2025年全国两会期间,有多位代表关注了数据安全、网络安全等问题。第十四届全国政协委员、全国工商联副主席、奇安信科技集团董事长齐向东告诉记者:“以大模型为代表的人工智能技术正在深刻重塑生产生活方式和科技创新模式。但随着人工智能大模型的基础设施地位越来越突出,针对性的恶意手段和风险场景也将激增,伴生的数据隐私、认知安全、基础设施等安全风险超乎想象。对于整个人工智能行业来说,平衡技术创新与安全风险必会成为重要课题。”

技术创新仍存“盲点”

随着近年来数字技术突飞猛进,金融机构数字化转型取得积极进展。但随着探索进入深水区,一些新问题也正在形成。

记者在采访中发现,技术创新与赋能当前仍存在“盲点”,一些中小机构、中小企业在数字能力建设上存在困难。

“当前,我国中小微企业数字化转型处于起步阶段,面临资金支持政策门槛高、融资渠道窄的难题,普遍存在规模小、盈利能力弱、信息化基础差、人才储备不足等问题,数字化转型风险承受力不强,试错成本高昂。” 全国政协委员、恒银科技党委书记、董事长江浩然向记者表示。

上海金融与发展实验室首席专家、主任曾刚近期也撰文指出,相较于大型金融机构,中小金融机构的资本和资源相对不足,这影响了它们推出创新产品和服务的能力。同时,中小金融机构的科技研发能力和技术储备、高素质专业人才储备等较为薄弱,这些都对促进数字金融发展和提升科技金融服务能力形成障碍。

针对此,江浩然建议,进一步推动实施针对中小微企业数字化转型的财政补贴、税收减免及专项基金政策,降低享受优惠政策的门槛。同时,加大数字基础设施的投资建设力度,推动建立开放的数据共享机制,促进产业链上下游企业间的数据互联互通。此外,建议组织高校、职业院校、行业协会及企业加快数字技能人才培育。

在曾刚看来,中小金融机构可以根据业务发展和市场竞争的需要,制定与自身能力相适应的数字化战略,通过金融科技的应用,实现业务流程的数字化和智能化,提高运营效率,降低成本,增强客户体验。同时,开发基于大数据分析的信用评估模型,提升风险管理能力。

值得注意的是,针对数字化转型的具体路径,《指导意见》中提到:强化科技和数据双轮驱动,加强前沿数字技术研发和创新应用,夯实数据治理能力基础,依法合规推动公共数据向金融机构赋能应用。

比如强化金融信用信息基础数据库、全国信用信息共享平台服务金融“五篇大文章”功能,探索发展相关行业特色企业征信机构以及健全全国一体化融资信用服务平台网络,加快建设全国中小微企业资金流信用信息共享平台、创业投资与创新创业项目对接平台,探索依法扩大动产融资统一登记公示系统应用范围等。

上述建设方向也有利于为金融机构通过数字化方式服务实体经济扫清障碍。

北京社科院副研究员王鹏向记者表示,金融技术创新一方面能够提升服务效率与质量,满足多样化的金融需求;另一方面,也给监管和风险防护带来新的挑战,比如金融创新可能涉及多个领域,跨界监管难度较大;创新速度加快导致监管可能有所滞后等。因此,在他看来,要构建全风险管理制度,企业端需要明确策略和流程,运用技术提高识别准确性加强数据收集和分析。从监管角度,则需要推动监管科技的运用;加强协作和信息共享等。

AI赋能需警惕安全风险

记者注意到,在鼓励创新的同时,《指导意见》也提出健全数字金融治理体系,依法将数字金融创新业务纳入监管,提高数字化监管能力和金融消费者保护能力。加强数据安全、网络安全、信息科技外包、算法模型、新技术运用等风险管理,推进金融业关键信息基础设施信息技术创新应用。

当下大模型技术在金融业务的应用格外受到瞩目。记者也在采访中了解到,当前金融机构或金融科技企业均高度关注人工智能技术,比如近期大热的DeepSeek一出世,就有不少机构加班加点进行部署。

但相应的安全风险也有所增加。有金融机构人士向记者表示,DeepSeek的开源特性可能暴露敏感业务逻辑或训练数据,金融领域很多数据涉及合规、隐私以及监管问题,需要格外注意。

齐向东今年两会的提案就重点关注了人工智能带来的安全问题。他向记者表示,目前人工智能带来的相关安全问题大致可以分三类:首先是人工智能大模型自身的安全问题。开发风险、数据风险、应用风险和基础环境风险这四大安全风险比较突出。开发方面,开源大模型要重点防范代码缺陷和预留后门,应用方面要防“内鬼”对训练数据“投毒”,进行模型篡改、配置篡改;数据方面,要防范内部配置错误和弱口令等造成的数据库暴露;基础环境方面要重点关注云、API、传统设备漏洞等。

“目前,已有团队发现DeepSeek存在严重漏洞,并可借此获取后端隐私数据、API 密钥、操作元数据,尽管漏洞很快被修补,但是根据我们的经验,新漏洞会不断被挖掘出来。”齐向东指出。

其次,人工智能促进了网络攻击手段的更新迭代,“饱和式”攻击成为可能,深度伪造、认知战、钓鱼等威胁加剧。最后则是要防范通过攻击人工智能引发的“网络攻击大爆炸”。

齐向东表示:“未来人工智能会成为社会的基础设施,当大模型嵌入智慧城市、工控系统、智慧政务等关键领域时,会放大漏洞类传统安全威胁。”

需要引起重视的现象是,企业对于大模型采取的安全措施仍然远远不够。齐向东告诉记者:“DeepSeek一问世,针对性的高强度网络攻击就爆发了,给人工智能行业敲响了坚守安全底线的警钟。我们发现,现在越来越多的企业、个人开始搭建DeepSeek大模型私有化部署,而将近90%的服务器都没有采取安全措施,服务运行和数据安全岌岌可危。”

针对这些安全问题,齐向东建议从技术保障、制度保障、成果应用三方面入手,系统提升安全能力,确保人工智能安全发展。

技术层面,要建立适配大模型的纵深防御体系。制度层面,可通过出台大模型网络数据安全强制合规要求类文件,对企业做好人工智能时代的安全防护工作给予清晰指引。此外还可以设立专项基金促进“AI+安全”创新成果落地,推动各领域头部企业与专业的网络安全企业开展联合创新,提升智慧城市、智慧能源、智慧金融等新兴场景的安全防护效能。

未经允许不得转载: 纵观资讯 » 数字金融深水区:技术创新与风险防控“平衡”并进