券商与AI大模型纵深融合未来可期
【券商与AI大模型纵深融合未来可期】AI大模型在券商业务中的场景应用大有可为,但券商大规模使用AI大模型仍面临数据安全性、合规性及稳定性等多个方面的痛点。在业内人士看来,未来随着相关技术的不断成熟和应用场景拓展,相关痛点将逐步解决,券商与AI大模型将纵深融合。
AI大模型在券商业务中的场景应用大有可为,但券商大规模使用AI大模型仍面临数据安全性、合规性及稳定性等多个方面的痛点。在业内人士看来,未来随着相关技术的不断成熟和应用场景拓展,相关痛点将逐步解决,券商与AI大模型将纵深融合。
面临多个痛点
作为金融机构,券商拥有高价值的领域数据资产,在布局AI大模型过程中,面临合规性、安全性等多重挑战。
国金证券研究所计算机行业首席分析师孟灿表示,AI大模型的应用可能需要将数据传输至外部服务器进行处理,而券商所涉及处理的是高度敏感和机密的数据,数据安全成为一个关注的焦点。此外,许多证券公司的数据治理体系尚未完全建立或优化,这意味着数据可能存在分散、不一致或质量不高的问题。由于大型语言模型高度依赖数据的质量和结构,这些问题可能导致模型性能不佳或产生误导性的输出。
“证券行业涉及大量敏感数据,包括客户信息、交易数据等,在处理数据时可能会泄露敏感信息。”国泰君安表示,同时,金融行业数据具有复杂性和多样性,AI大模型在训练过程中可能出现过拟合现象,同时存在AI大模型幻觉问题,难以满足金融行业对数据、内容准确性的高要求。
此外,证券公司IT稳定性要求与新技术日新月异变化之间存在矛盾。孟灿表示,证券公司信息系统的稳定性要求很高,将AI大模型集成到证券公司现有的IT架构和工作流程中可能遇到技术挑战,包括系统兼容性问题、成本问题和合规性问题,而且新技术的引入也会干扰现有工作流程的稳定性和效率。
国泰君安还强调,AI大模型的训练和推理过程需要强大的计算资源作为支持。如果算力供应不足或不稳定,可能导致模型训练时间过长、推理速度过慢等问题,影响模型在实际应用中的效果。
加强数据治理
针对数据安全风险,国泰君安认为,需要加强数据治理,明确数据源的范围、目的和用途,确保数据来源合法合规,在数据全流程中确保数据的安全性和隐私性,防止数据泄露和滥用。准确性方面,可结合训练微调,并通过加强合规监测等方式规避AI大模型幻觉所带来的相关问题。
孟灿认为,券商需不断夯实数字技术应用的安全基础:制定应急处置预案,常态化开展应急演练,及时有效处置突发事件;深入研究开源软件治理,建立健全开源软件评估体系,妥善应对开源风险;建设行业网络和信息安全态势感知平台,防范化解数据隐私和安全风险。
为解决AI大模型的合规性、安全性等问题,国金证券原创性地提出“AI友好”型组织以及“AI友好”业务流、数据流的设计理念,如可重复验证的场景,包括合同是否符合某些合规性要求、身份证和人脸识别、软件运行是否符合预期,这类场景的追求目标是将暂且只能由人工执行的流程,通过“AI友好”设计为“AI可重复验证”,通过自动化执行不断提升AI的应用力度。
国泰君安也多措并举建立输出内容的可控技术架构,实现内容的可信、可控输出。包括建立可信的输出内容仓库,赋能AI大模型可信数据源;AI大模型与小模型结合,并辅以Agent平台和实时API接口,控制AI大模型结构化输出;建设AI大模型对结构化、非结构化、半结构化数据的统一支持,将异构数据一体化一站式处理变成现实,实现数据能力的全面提升。