□记者 苏洁
近日,互联网厂商和金融行业研发推出ChatGPT,由此拉开了大语言模型产业和生成式AI产业蓬勃发展的序幕。在金融行业,大型国有银行和保险业,甚至证券业也开始试水大语言模型。随着GPT-4推出市场以及GPT-5的暂时叫停,ChatGPT将何去何从?下一步,金融业落地实践需要注意哪些问题?
各类参与者的机会
(资料图片)
近日,艾瑞咨询发布的《ChatGPT浪潮下,看中国大语言模型产业发展》报告指出,市场热度高涨,中国人工智能产业迎来了难得的发展契机,但在热潮背后,产业的可持续发展,各类参与者的机会和价值点值得深思。
北京前沿金融监管科技研究院高级研究员车宁表示,结合目前市场格局和数字科技一般商业模式,类似ChatGPT的人工智能大语言模型可能将分化为基础通用模型、行业应用模型及两者之间的中间层。基础通用模型的市场机会将在一段时间的博弈后,集中在少数大型平台及头部人工智能科技企业,包括金融机构在内的传统企业在行业应用模型方面仍将具有优势,部分实力突出的金融科技子公司将获得新的增长机会。而从基础模型向行业应用赋能的中间层则是一般科技企业的“用武之地”,从中可能崛起新的人工智能企业。
索信达控股AI创新中心主任邵俊指出,从AI产业结构来说,基础层指的是大模型,在这波AI浪潮中,基础层在产业链中占据最核心的位置,所以势必成为头部机构的必争之地,所以竞争非常激烈。中间层就是连接大模型和终端用户需求,提供AI相关功能套件的产品,市场空间同样巨大,但推陈出新较快;机会最多、也最适合中小企业布局的应该在应用层,可以结合AI能力赋能其自身的业务,相对来说这一层面门槛相对较低,如果能够抢先布局,找准用户痛点,将会有较大机遇空间。
目前来看,银行业在大语言模型应用上比较积极,几大国有银行率先落地相关技术。保险相对进度比较慢,一些国外的保险公司、数字医疗公司都在尝试将ChatGPT应用在不同环节,包括苏黎世保险公司以及瑞士保险公司Helvetia,他们致力于将ChatGPT应用于转录医患对话并形成临床记录、探索在理赔和数据挖掘方面的应用以及推进客户服务。
个人信息保护更为迫切
就在GPT-4快速推向市场,引发人们又一波关注的时候,作为OpenAI曾经的支持者马斯克与多位科研界人士发表联名声明,基于伦理与设计安全标准考虑,呼吁“所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月”。
近日,中国支付清算协会向行业人士发布倡议,支付行业从业人员谨慎使用ChatGPT等工具。此外,为促进生成式人工智能技术健康发展和规范应用,国家互联网信息办公室关于《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)公开征求意见,其中第五条指出,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下简称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。第七条指出,提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。
针对ChatGPT可能带来的风险,一位行业人士向《中国银行保险报》记者表示,首先,从数据安全的角度来看,个人信息保护更为迫切,通用人工智能类产品一项重要功能在于对已有数据的收集整理以及智能化输出,对信息的筛选机制决定了其输出更为精准。其次,政策提供的“修正周期”过长,在《征求意见稿》中提到,“对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。”3个月的纠正时间窗口,对于敏感数据的泄漏来说,已经足够完成多次传播,造成一定影响。最后,个人信息保护的技术手段要更完善。从个人数据保护的角度来说,任何一个环节都需要比以往更加注重防护,尽可能建立全链条安全管控能力,以便全面感知、管控、保护、追溯。
各类大语言模型及生成式AI相关产品可能诱发的风险不容忽视,但少数人的“叫停”并不能减缓商业巨头和产业生态的推进步伐。
继大批互联网厂商和部分金融机构宣布布局和计划布局ChatGPT以来,近日亚马逊云科技宣布推出 Amazon Bedrock,在Bedrock上,用户可以通过可扩展、可靠且安全的亚马逊云科技托管服务,访问从文本到图像的一系列强大的基础模型。
据悉,方正证券AI互联网团队也将于近期开展“方正GPT大模型”计划,旨在训练出属于二级从业者自己的垂类应用大模型。
招联首席研究员、复旦大学金融研究院兼职研究员董希淼认为,ChatGPT等文本对话工具受到热捧,基于ChatGPT的服务日益增多,国内金融业也以较大热情参与应用和创新。但ChatGPT服务器部署在国外,将其引入国内金融业应符合《网络安全法》等法律法规;应用ChatGPT可能涉及大量用户信息和数据,应严格遵循《数据安全法》等规定,不得上传敏感信息,不得泄露客户隐私。中国支付清算协会向行业发出倡议正当其时,对整个金融行业和从业人员都是一次提醒,具有较强的针对性。
车宁表示,在数据安全方面,相较于前代模型,ChatGPT为代表的大语言模型更依赖于多元海量数据训练,考虑到部分使用者在信息安全方面的意识淡薄,以及具体场景中使用相关模型的规则缺失,客观上将增加数据泄露、滥用的风险。在社会伦理方面,大语言模型更能辅助决策甚至替代决策,客观上具有削弱人在生产中作用的可能,甚至可能改变具体的生产关系乃至社会交往模式。
类ChatGPT产业发展趋势
随着相关政策的初现雏形,ChatGPT有关使用细则是否会陆续出台?金融机构该如何正确看待和使用ChatGPT?
车宁认为,以《征求意见稿》公开征求意见为开始,未来ChatGPT将在通用领域及细分行业领域形成包括法律法规、监管政策、行业自律规范以及各类标准在内的规范体系。就其本质而言,ChatGPT等大语言模型对于金融机构的作用是提供初级智慧型工作的辅助乃至替代,因此一方面既要紧跟科技发展,另一方面要绷紧合规和安全之弦,既要遵守相关制度要求及社会伦理规范,又要确保建设与ChatGPT等大语言模型相适应的安全体系,确保技术的自主可控。
董希淼指出,对金融机构而言,应从三个方面加强客户信息保护:第一,在思想上,要高度重视客户信息保护。第二,在管理上,应建立信息数据库分级授权管理制度。第三,在机制上,加强金融信息安全保护的宣传教育,提高消费者金融素养和自我保护能力。
“对于新技术的发展和应用,监管层颁布相关政策进行严格监管、不断细化优化监管措施,规范相关技术应用,防范随之而来的风险,这将是必然趋势。从金融机构层面来说,在新的AI技术应用方面,需要把数据合规和安全作为首要的考量因素,要建立相应的严格风控流程和监管体系,在安全合规的前提下享受技术红利。”邵俊说。
标签:
免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。