导读
2025年10月27日至30日,2025金融街论坛年会在北京金融街举行。金融科技大会作为论坛年会特定版块,与金融街论坛同期举行。10月30日上午,由中国民主建国会北京市委员会金融委员会、首都经济贸易大学北京数字经济发展研究院、中关村金融科技产业发展联盟合作承办的“2025金融科技大会平行论坛——AI+金融专题论坛”以“智领未来金融科技创新”为主题,在中关村金融科技特色产业园举办。清华大学兴华卓越讲席教授、统计与数据科学系主任刘军出席论坛并发布题为《AI落地数字经济和金融的思考》的主题演讲。刘军教授认为“人工智能的落地必须与统计学和数据科学深度融合”,他指出:“单纯依赖大数据而缺乏严谨的统计思考可能导致模型偏差与决策失误” “统计与数据科学是AI落地的钥匙”;并通过城市治理,金融风控等多案例,展示了“Al+统计”如何为数字经济与金融提供可靠、可解释的解决方案。

清华大学兴华卓越讲席教授、统计与数据科学系主任刘军
以下根据速记内容整理:感谢李平老师邀请,很荣幸参与此次研讨会。刚才聆听司马市长、李部长对金融科技发展框架的深度思考,深受启发。我将从技术视角补充一些底层逻辑,助力AI在数字经济、金融领域的落地实践。
一、 AI的四大基础思想:从底层逻辑理解大模型
要理解AI如何落地,需先厘清其核心技术的演变才能理解技术怎么做迭代。我经常给大家打个比喻,你可以把AI大模型想象成是一个波音飞机,统计学和机器学习相当于空气动力学和热能学这类基础学科直接支持飞机,那么下一代飞机的发展不可能只关注如何把飞机的窗户做好?如何让椅子更舒服?飞机制造的工艺学涉及很多领域,还有许多经济方面的内容。我们正在尝试使用各种具体的Agent,当然也需要了解其工作原理,因此我总结了AI发展的四大底层逻辑: 1. 深度学习模型:从线性回归开始最原始的AI思想是线性回归——用x推测y,本质是统计中的“预测”。几百年前高斯提出的线性模型是统计学的基础,后来发展出非线性模型,但核心仍是“用简单函数拟合复杂世界”。 尽管神经网络发展得很早,但真正用到非常大型的网络是深度神经网络(Deep Neural Network)的出现,也就是最近二十年的事情。大模型的发展对很多原始的科技直觉具有一定的反思作用。以前科学界都认为模型越简单越好,理解一个事情要简单、直接,所以大家也希望基于一个非常简单的模型做推导。但大模型的出现对这种思路是一个冲击,使用一个参数非常多的模型也能对整个事物描绘得很好,而且会更好。大模型的出现同时催生出很多统计学习方法,如对比学习、混合专家模型、自监督学习等。但大模型到底是什么,怎么才能做好,怎么能有泛化性?这一系列的问题都有待于大家去思考。大家可能都知道大模型有幻觉的问题,同时也有智能涌现的特点,但这些特点到底是怎么产生的?为什么会出现?有些人把它看成玄学,认为机器慢慢具有智能了,我不信这一套,我认为这是瞎扯。实际上在物理、数学领域都有类似的现象,有一个叫Phase Transition的理论就试图对这类现象进行解释,比如说水变成冰,怎么在一个温度下水忽然变成冰,或者冰在一个温度下忽然变成水。大模型的推导能力可能也存在类似的现象,有些数学家正在研究这个事情。2. 大语言模型的基础:文字和文本在欧式空间的嵌入表达另外一个革命性的思想,就是把文本离散的数据变成向量,通过空间向量去表示两个词的距离。比如说“父亲”跟“母亲”这两个词是有空间距离的,我们认为“父亲”和“母亲”是紧密连接的,但有时候“父亲”跟“皇帝”也有一定的联系,但是不太知道怎么把它们搁在一起?这个就叫深层知识表征(Embedding),是非常革命性的想法。这种思路是所有DeepSeek、Chat-GPT的基础,就是所谓的Next Token Prediction,因为这种方法可以把这些词扩展到句子或者短文。把词汇变成空间向量就可以用机器学习的方法实现Next Token Prediction,这是一个基本的框架,同时也提示我们,大模型的价值远不止于对话交互——那些看似“老人都能理解”的生成结果,仅是其能力的冰山一角。真正值得挖掘的,是深入其底层训练过程中动态生成的深层知识表征(Embedding) ,并将其有机整合到模型内部或外部再次调用,可能会产生更好的结果。这种“向底层要价值”的思路,往往能解锁更精准、高效的应用潜力。比如用AI做对冲基金的公司们,就会用这个思路,他们从来不会用现有模型做这件事情,而是把模型拆开了,应用到具体的问题里面去。3.Stable Diffusion:生成式AI的基础稳定扩散(Stable Diffusion)的核心思想可以用一个直观的类比理解:它像一场“逆向的加噪实验”——我们先将一张清晰图像逐步加入随机噪声,直到它完全变成一片混沌的噪声;而模型的训练目标,正是反向学习“如何从这片噪声中一步步还原出原始图像”。具体来说,这个过程通过迭代的加噪-去噪训练 实现:模型首先学习“从清晰图像到噪声”的正向变换(类似给图像“加噪”),再通过深度神经网络反向推导“从噪声到图像”的逆向生成路径。每一次加噪都是对图像信息的“破坏”,而模型的任务是捕捉这种破坏的规律,最终掌握“从混沌中重建秩序”的能力——这正是生成式模型的底层逻辑。这一“加噪-去噪”的迭代学习框架,已成为几乎所有生成式模型(如图像生成、文本生成)的基石。它的巧妙之处在于,通过模拟“破坏-重建”的过程,让模型在不直接学习“好图像是什么样”的前提下,自下向上掌握了生成高质量内容的底层规律。这是一个非常奇妙的想法,现在基本所有生成式模型都用这一套框架。4.强化学习关于AlphaGO,大家在金融里面也会用这种策略,相当于对话式的模型调优,你可以先有一个策略出来,然后通过模型推导看结果,再根据这个结果去优化策略。强化学习就是这样一个思路。但是最重要的一点,在往前搜索的时候是要一些随机的蒙特卡洛搜索,并不需要把所有情景都概括。
二、关于大模型的应用:关注数据缪误
以上四点是比较核心的思路,概括了现在AI技术的底层逻辑。我再提一点需要注意的事项,就是关于数据的使用,即使是针对小数据也要进行遴选,因为数据往往是有偏差的。在这里,我们并不是说大模型有什么问题,但是咱们在使用的时候一定要重视数据的质量,要不然推理的结论就会出现偏差。这里面有一个例子,大家知道,谷歌多年来一直在持续研发大模型,曾经有一个非常轰动的工作发表在《自然》杂志上,核心是运用用户搜索信息预测流感爆发。作为最有钱,体量最大的互联网公司,这个对他们来讲本不应该是一件很难的事情,但是他们也犯了一些低级错误。比如,让跟季节有关的信号主导了对流感的预测,造成了对流感的预测本质上变成了对季节的预测,从而出现了偏差。这种被“大数据”和“人工智能”掩盖的错误往往更隐蔽、更有迷惑性,但危害也更大、更严重。总的来讲,对数据的理解是大模型应用非常重要的一件事情。
三、AI+统计赋能金融科技
我们系和我自己在应用方面做了一些尝试。一是数字治理。我们帮海关总署做监管方案,因为他们数据非常小,直接用大模型很难做,这就需要用非常精巧的 Agent完成这个事,其中包括很多基于统计原理进行实验设计和分析等,还有市场监管的方面也可以用这些基本的想法。二是风险控制。在我国,风险控制是非常重要的目标和手段。我们用大模型把大量文本数据整合起来,然后用文本的信息挖掘企业之间的关联关系,这里面使用了一些技术手段,包括随机分析,蒙特卡洛模拟和图神经网络等方法做风险预估,实现智能风控。这个事我们正在尝试,似乎是一个很有前景的方向。现在很多的银行也在使用这种方法去预测美元的风险,现有的技术条件下如能整合更多的模态数据,预测的结果可以做的更好。反洗钱是金融监管很重要的一个目标,用统计和AI技术整合在一起,可帮助金融机构识别风险资金。最后再提一点公共管理方面的,包括用生成式AI挖掘弱势人群的需求,用一些动态的模型可以去做交通拥堵方面的控制。由于时间关系,最后总结几点,一个是再次强调对数据的理解,对我们发展有用的 Agent具有非常重要的意义;另外,咱们国家对数据安全非常重视,但对数据进行分析和挖掘也非常重要,应该更加鼓励。统计和数据科学是AI落地的一把钥匙。