Press "Enter" to skip to content

【交易技术前沿】证券行业金融科技风险若干问题思考:技术视角

 

本文选自 《交易技术前沿》总第三十七期文章(2019年12月)

 

廖倡 / 深圳证券交易所 证券期货业金融科技研究发展中心(深圳)

 

摘要:当前,金融科技正加速推动金融行业革新。然而,金融科技的发展还面临一些挑战,并存在相关的问题。本文首先回顾金融科技发展历程以及国内外关于金融科技风险若干探索,而后重点从技术角度对金融科技风险进行详细剖析。基于人工智能治理相关内容,结合金融科技若干实践,提出了技术层面相关研究和规划建议。

 

关键词:金融科技、技术视角、人工智能治理

 

一、 证券行业技术的发展历程与金融科技风险

 

本节首先总体介绍证券行业技术的进展,概述金融科技发展与相关风险,以及金融科技风险相关工作。

 

 

图1:证券行业技术发展现状与金融科技风险若干探索

 

1. 我国证券市场技术发展历程

 

如图1(a)所示,我国证券市场技术发展经历创立初步、快速成长、规范发展、创新发展四个阶段。

 

20世纪90年代,中国证券市场形成之初即抓住信息技术革命浪潮机遇,陆续实现了场内交易撮合电子化、登记结算无纸化、柜台系统电子化等业务流程,满足了市场初期的业务发展需要。

 

1993年之后,我国证券市场经历了一个快速成长期。高性能的交易平台、卫星通信网络等一批新技术得以在市场上成功应用,不仅进一步推动了整个交易过程的全面电子化处理,而且也促使了全国市场及其技术体系的形成。

 

2000年以后,中国证券市场开始进入规范发展阶段。多层次市场建设加快,产品与业务创新不断涌现,通过技术创新交易模式、拓展交易范畴,提高技术安全与风险控制成为这个阶段的主要任务。

 

2. 证券行业金融科技概况与风险概述

 

2010年以来,证券市场进入科技引领、创新发展新时代,即金融科技。证券行业针对新兴技术应用开始了新的尝试,主要围绕优化业务流程、提升业务效能、降低运营成本、增强用户体验等开展创新应用。如图1(b)所示,交易所等市场核心机构建设了一批行业信息化公共基础设施,为市场提供集约化云服务,降低了行业整体成本。同时,实体画像、知识图谱、文档分析等成为公司监管、市场监察、风险监测等监管业务,以及智能客服、智能投顾等经营业务的重要支撑。

 

金融科技作为一个跨界新兴产物,如图1(c)所示,其快速扩张带来新的一系列风险 [1][2] ,如金融科技的广泛连接带来的 “网络效应”增加了金融体系的复杂性,可能会放大风险的传染性和影响面;金融相关法律法规没有充分考虑人工智能技术对金融业的影响,使人工智能算法模型处于监管真空或灰色地带;人工智能技术直接应用于金融实际场景存在不可解释性、隐私性等问题。

 

3. 金融科技风险防范相关工作简述

 

2019年,中国人民银行发布《金融科技发展规划》,指出要加强金融风险监测与评估。中国证监会也出台行业的金融科技指导意见,更加关注业务合规风险、信息安全风险和数据安全风险的防范要求。同时,面对蓬勃发展的金融科技产业,诸多国际组织、国家、地区陆续成立专门机构,对金融科技领域进行多角度研究,致力于探索更加完善的管理模式 [1][2] 。新加坡金融管理局发布了一系列关于人工智能与数据分析的应用原则,以确保在金融领域使用人工智能和数据分析的公平性、道德规范、可问责性和透明度。如图2(a)所示,监管沙盒 由英国率先提出,以实现对金融科技的鼓励创新和风险防控。在这个空间里,公司或机构可以测试新的金融科技产品、服务、商业模式和交付机制,而不用承担常规监管的后果。

 

近期,业务层面的金融科技风险也开始逐步被资本市场所重视。如在智能投顾领域 [3] 中网络的虚拟性、不同算法产生投资组合的复杂性等问题,交易领域中高频交易等对传统金融交易标的、定价、流程和对价等产生巨大冲击将而引发公平性等问题。此外,大型科技公司(Big Tech)涉足金融业务,有可能利用自身科技优势垄断某一项金融业务,实行混业经营,面临市场冲击时可能会出现羊群效应,加大系统性金融风险发生概率。

 

 

图2:监管沙盒与全文框架

 

然而,绝大部分关于金融科技风险的工作集中于宏观层面,且大部分以政策研究为主,业务场景探讨次之,很少有工作直接从技术方面讨论如何防范金融科技风险。针对该问题,本文详细剖析技术层面的相关风险,进一步探讨通过技术手段防范的潜在可能。第二章从金融科技的理论基础出发,介绍人工智能治理研究相关工作;第三章从金融科技的应用场景出发,介绍金融场景中若干实践案例;第四章从技术角度提出金融科技风险防范的若干建议方案。全文框架如图2(b)所示。值得注意的是,本文为专注从人工智能技术治理角度防范金融科技风险,严格限定研究边界,加密资产、云计算、区块链等均不在本文研究范围。

 

二、人工智能治理回顾

 

金融科技发展的重要基础是人工智能,金融科技风险防范的相关思路可以借鉴人工智能治理相关内容。根据Gartner曲线 显示,如图3(a)所示,大部分人工智能技术的发展还处于萌芽阶段,但关注度极高,且人工智能治理处在最为关注的阶段。各国际组织、国家、专业协会纷纷发布相关政策准则,如图3(b)所示,致力于人工智能治理发展研究。

 

欧盟委员会发布人工智能伦理准则,列出了“可信赖人工智能”的关键条件。在2018年5月25日,其出台《通用数据保护条例》(General Data Protection Regulation,简称GDPR) [4] ,规定保护个人隐私,遏制数据滥用;要求一个系统必须具有“解释权”。本文第三部分将围绕这两点详细展开,并列举其在金融科技中的若干实践。

 

2019年,中国提出为促进新一代人工智能健康发展,确保人工智能安全可靠可控,推动经济、社会及生态可持续发展,共建人类命运共同体的若干原则。美国计算机协会针对算法歧视问题,发布关于算法透明和可责性的七条原则。除此之外,斯坦福成立“以人为本”的人工智能研究所、IEEE发布人工智能伦理标准等;亚马逊、谷歌、微软、Facebook等科技企业也设有关部门以解决AI伦理问题,开发工具来检测算法偏见。

 

 

图3:人工智能治理回顾

 

就具体技术层面而言,人工智能风险防范等相关内容开始被逐渐重视。如图4所示,其重要思路即建立算法风险管理体系,保证可解释性、隐私性、鲁棒性(在应用时不易受噪音或特定输入干扰)、以及公平性(不会对某类行为表现出无意识的偏好)等。近年来,在人工智能和数据科学的顶级会议(如KDD、ICML、NIPS、IJCAI、AAAI、WWW等)均设有相关的讲习班或讨论会。

 

与传统机器学习不同,深度学习直接从原始特征出发,其特征提取、选择、推理、预测等部分均为高阶复杂函数形式,缺乏明显物理含义,在实际应用中缺乏可靠性。目前,兼顾可解释性、隐私性、鲁棒性、公平性等要素的深度学习算法优化研究工作逐步增加。在模型鲁棒性方面, [5] 提出针对图深度学习模型的对抗攻击方法,是首个在属性图上考虑噪声的对抗攻击研究。在模型公平性方面, [6] 提出从“有偏差”用户反馈数据中训练“无偏差”的排序模型若干策略; [7] 总结机器学习的若干偏见,指出深度模型的普遍联系有可能进一步加剧歧视现象,并提出若干优化策略。

 

人工智能治理的若干研究成果可以被广泛借鉴应用于金融科技技术层面相关优化,如鲁棒的机器学习模型设计、少量的样本就能快速识别新类别(例如风险事件分类)的方法、数据去噪、偏差建模等。此外,关于建模用户行为和市场机制的多agent仿真建模在金融科技应用中具有广阔空间。

 

 

图4:算法风险管理体系

 

三、 金融科技风险防范若干技术层面实践

 

本节结合具体应用场景,重点列举在可解释性、隐私性层面若干工作实践,以及虚拟监管沙盒相关探索。

 

1. 算法方面的可解释性研究

 

目前,兼顾可解释性要素的金融科技算法设计开始被逐步重视。由于算法的复杂性,将有可能导致算法消费者、设计者、使用者以及机器之间存在信息不对称等问题。

 

 

图5:可解释问题相关内容介绍

 

在工程实践层面,如图5(a)所示,监管科技3.0 [8] 基于已有监管案例积累各类违法违规手法,构建违规动机库、风险特征库、违规要件库,与金融科技相关算法模型得到的概率型线索进行匹配,增强概率型线索的可解释性。例如深交所智能财务审计分析课题中,通过构建“财务舞弊动机—财务舞弊手法—财务舞弊表象”的线索链条,对财务舞弊倾向得分较高的对象进行分析,识别其违法动机、手段及表象,若形成完整的证据链,则认为该概率型线索可靠。此外,在某监管机构的市场运行风险监测智能化研究课题中,其试图整合相关信息对市场运行进行预判,同时拟结合事理图谱、事件链条等对发生异常的原因进行解释。

 

在学术研究层面, [9] 强调理解预测结果的重要性,提出Local Interpretable Model-Agnostic Explanations方法(LIME:局部可解读的与模型无关的解释),如图5(b)所示,通过将输入值在其周围做微小的扰动,观察模型的预测效果,衡量各部分输入对预测结果产生贡献。 [10] 提出一种基于双向循环神经网络的深度学习算法FISHQA,引入层次化结构模型以及自动问答注意力机制(Hierarchical Query-driven Attention),如图5(c)所示,有效对金融舆情的正负面情感进行识别,且对输出结果进行详细解释,有效克服情感判断依据不明确的问题。 [11] 提出基于深度学习的深层次用户画像,在保留深度学习特征提取的优点的同时,结合监督/无监督学习方法实现用户分类/聚类,强化画像的特征可解释性,并能够进行后续分析。

 

2. 数据方面的隐私性研究

 

证券市场数据层面的工作主要集中于数据规范和标准化工作上,金融科技应用过程中围绕数据层面存在的隐私性、小样本性 [12] 等方面要素相关工作都相对较少。同时,金融科技监管中数据的隐私保护开始逐步受到重视。

 

在学术研究层面, [13] 提出数据自治开放框架,如图6(b)所示,通过在数据盒中基于区块链等相关技术封装数据防泄漏、数据权益保护和数据访问监控等机制,使之具有独立性、可用性、可控性。 [14] 提出联邦学习框架,如图6(c)所示,基于同态加密等相关理论建立把数据聚合在一起的虚拟模型,允许在不损害隐私的情况下进行知识共享,其提供一种证券行业经营机构与数据合作企业间的可能联合营销模式,确保数据在双方不出域的情况下实现联合建模,如推荐算法训练、客户分类,实现精准营销、产品推荐和权益定价等业务。

 

监管科技3.0常常面临数据属性维度不够高、数据样本不够多等问题。以“老鼠仓”的监管为例,通过异常交易检测发现某股票在多个交易日内存在异常波动定位关联账户,而后需要整合投资者其他相关属性信息形成对应线索链条。其中部分投资者数据属性需要来源其他部委、互联网科技公司等,如图6(a)所示。针对此类存在的数据安全合规问题,一个可行的思路通过加密交换的手段,将各自拥有的同样用户的不同特征作为输入,迭代地进行训练模型、交换参数,通过建立一个数据“联邦”,可以让参与各方都获益,而又保证数据隐私。又如在某监管机构的企业画像项目后续规划中,试图基于联邦学习的思路,将存储在不同地点、不同机构的相关数据(如海关数据等)利用起来,对企业相关风险标签或缺失属性值进行预测或补全。

 

 

图6:隐私性问题相关内容介绍

 

3. 虚拟监管沙盒相关内容

 

为检验相关金融科技运用对市场的影响,防范潜在风险,从技术角度出发, [15] 提出构建虚拟沙盒平台。针对金融科技创新的产品与服务,基于人工智能的模拟仿真测试环境被提出,以用于验证评估金融科技创新项目对现有市场带来的风险。虚拟沙盒的思路即基于计算实验金融学,如图7(a)所示,是一种基于仿真的“情景-应对”型风险管理思想。国内中证监测在融资融券政策实施之前,曾借助仿真的手段开展了相关研究。深交所基于仿真技术开展“T+0”研究,依据What-If Analysis得到对相关市场影响分析结论。

 

虚拟监管沙盒的基本架构如图7(b)所示,主要包括两个方面:(1)模拟市场的各类模型,包括各类投资者模型、交易撮合模型、外部信息模型等;(2)辅助仿真实验开展的工具,包括仿真运行监控工具、人工干预工具、数据采集和管理工具以及数据分析工具等。虚拟仿真沙盒的目的即分析特定行为和交易机制要素对市场总体的影响,以及市场系统的动态变化规律。通过整合行业内外部数据开发仿真模型,试图回答诸如制度设计、监管措施的效果分析、新产品的可行性分析、算法交易影响测试等等问题。

 

 

图7:虚拟监管沙盒

 

四、 金融科技防范总结与建议

 

总体而言,金融科技在证券市场的应用已取得初步成果,但防范手段的发展仍落后市场的发展。这里从技术规划和研究角度,提出优化资本市场金融科技发展的路径:

 

1. 模型设计和优化方面的问题:

 

一是借鉴人工智能算法中的因果推断相关成果。研究因果推理在金融科技中相关应用,避免机器学习算法中简单的关联性导致决策不公平性的出现。

 

二是借鉴算法黑箱问题优化相关成果。研究兼顾决策过程理解的金融科技算法模型,同时加强金融业务知识在可解释性中应用,如完善资本市场执法证据链条等。

 

三是建立模型设计与优化生态。吸引监管机构、地方政府、技术企业、高校与研究机构、行业组织等参与,研究金融科技的安全边界与创新路径。

 

2. 数据处理和融合方面的问题:

 

一是采用可行的技术性纠偏方法。针对主观数据(偏差数据)使用较多的业务场景或模型算法中,研究使用修正度量或相似度计算,将系统输出与期望的公平行为进行比较。

 

二是数据融合等方面的问题。针对数据易复制、价值难定量、渠道难管控等问题,研究如何利用区块链等相关技术使封闭的数据开放流通,研究数据自治开放理论、定价理论。

 

三是小样本学习研究。目前金融领域的机器学习运用普遍存在样本稀疏的问题。可以研究尝试小样本学习、零样本迁移学习方法等在具体金融场景的实践。

 

3. 虚拟监管沙盒方面的问题:

 

一是规划构建大规模自主agent的计算实验模型。包括但不限于信息、资产、投资者类型、交互方式、交易机制、时间维度等,研究金融系统复杂演化规律。

 

二是规划研究市场各主体复杂行为、机制建模。例如在仿真平台中,嵌入固定策略和智能策略的虚拟交易者,以及精确建模资本市场市场信息披露模拟器、控制器等部件。

 

参考文献

 

[1] 唐理斌, et al. 证券公司金融科技应用现状、风险及监管研究[J].证券市场导报(增刊),2019,46(311):11-15

 

[2] 邵宇, 罗荣亚. 金融监管科技:风险挑战与策略应对[J]. 中证金融与法律研究,2019,3

 

[3] 陈娟, 熊伟. 智能投顾业务的发展现状和法律属性[J].证券市场导报(增刊),2019,46(311):16-20

 

[4] https://www.gov.uk/government/publications/guide-to-the-general-data-protection-regulation

[5] Zügner D, Akbarnejad A, Günnemann S. Adversarial attacks on neural networks for graph data[C]

Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. ACM, 2018: 2847-2856.

Proceedings of the Tenth ACM International Conference on Web Search and Data Mining. ACM, 2017: 781-789. [7] Courtland R. Bias detectives: the researchers striving to make algorithms fair[J]. Nature, 2018, 558(7710): 357-357.

[8] 中国证监会监管科技建设与协调工作组.《“业务导向、监管导向、应用导向” 的资本市场大数据分析方法》, 2019

[9] Ribeiro M T, Singh S, Guestrin C. Why should I trust you?: Explaining the predictions of any classifier[C]

Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining. ACM, 2016: 1135-1144.

IJCAI. 2018: 4244-4250.

[11]熊赟 张尧 陈佳伟. 投资者行为数据表示与画像[J]. 交易技术前沿, 2019,6

 

[12] Huang L, Ji H, Cho K, et al. Zero-shot transfer learning for event extraction[J]. arXiv preprint arXiv:1707.01066, 2017.

 

[13] 朱扬勇, 熊赟, 廖志成, et al. 数据自治开放模式[J]. 2018, 大数据, 4(2):3-13.

 

[14] Yang, Qiang, Liu, Yang, Chen, Tianjian, & Tong, Yongxin. Federated machine learning. ACM Transactions on Intelligent Systems and Technology, 2019,10(2), 1-19.

 

[15] 焦松,仿真技术如何在证券市场科技监管中进一步应用. 深圳证券交易所,

 

https://mp.weixin.qq.com/s/44zXSqCl-A2i0-Md3yGxwQ2019

 

作者简介:

 

廖倡,复旦大学博士,现就职于深圳证券交易所,研究方向为数据科学、监管科技等。

 

另注:本文某些观点来自互联网,限于篇幅限制,无法一一列举参考来源,特此表示感谢。此外,文中仅代表作者个人观点,仅供研究参考,文责自负,不代表所在单位观点。

Be First to Comment

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注