日期选择 logo

2023-09-06 第27,709号

上海报业集团主管主办·文汇报社出版

newspaper
第2版:要闻

人工智能治理已成为数字经济治理体系不可或缺的一环

严谨的金融业如何与大模型“做朋友”?

       ■本报记者 徐晶卉
      
       2023外滩大会将于明天在上海开幕,大模型与金融行业深度结合将是一大看点。当前,大模型热度持续攀升。近半年来,全球近百家公司、机构相继发布大语言模型产品。从上周起,百度“文心一言”、商汤“商量SenseChat”等一批大模型向社会公众开放。
      
       本届外滩大会期间,至少有5家金融大模型厂商齐聚。但金融这种高度严谨的行业,如何应对大模型技术打开的风险敞口?记者采访多位专家,他们一致认为,人工智能(AI)治理已成为数字经济治理体系不可或缺的一环。
      
       大模型涌现,对安全提出新考验
      
       今年以来,人工智能模型的参数规模呈现爆发式增长,业界参数量突破千亿级的大模型纷纷涌现,人工智能技术商品化程度不断提升,呈现深度融合泛化的态势。
      
       大模型令人惊叹的能力,可成为一些专业领域的“头号助理”,但反过来也有可能成为深入产业的阻碍。中国信息通信研究院云计算与大数据研究所主任石霖表示,数字经济时代人工智能加倍释放红利,但随之而来的算法黑箱、隐私泄露、偏见歧视、算法合谋等问题也令人担忧,涉及数字经济底层要素、数字内容分发传播、数字经济市场秩序、数字社会公平正义4个领域。
      
       从数字经济底层要素和数字内容传播层面来讲,石霖担忧的是,大模型的涌现能力关系到基础系统安全和个人信息保护,因此,在金融等高度严谨的行业使用,需要反复验证安全问题。此外,大模型的交互式能力可能加剧数据泄露风险,过于丰沛的创造力则会带来“幻觉”过多的困扰,深度黑盒模式下的大模型技术可能会打开更大的风险敞口。
      
       研究机构盖特纳预测,到2025年,生成式人工智能所创造的数据将占到所有已生产数据的10%,不仅可重塑数字内容的生产方式和消费模式,更会带来生产力的巨大提升。面对这种不可阻挡的态势,蚂蚁集团安全科技技术部负责人姚伟斌的忧虑则在于,大模型容易进一步催生实际应用风险。
      
       他指出,生成式大模型目前最大的不可控问题在于“AI幻觉”,即“一本正经的胡说八道”。比如,当模型在面对“不知道”的输入问题时,经常使用虚构或伪造的结论来充当答案,“大模型因其算法的高度复杂性和不确定性,使得其决策链路存在不可控性和不可解释性,这些问题都会对实际应用带来风险,特别在金融、法律等行业都是不可忍受的。”
      
       大模型安全,需要加强多元共治
      
       大模型时代让全社会的数据深度交融,也给安全治理带来层层挑战。
      
       石霖从数字经济体系的角度来看待人工智能相关风险防控,他认为,数据经济的核心要素是数据,技术形态越来越智能化,整个组织形式是大平台方式,呈现数据化、智能化、平台化的显著特征,因此,人工智能治理是数字经济治理体系不可或缺的一环。
      
       近年来,我国出台了不少政策和相关规定,推动人工智能治理落实。今年7月,我国率先出台《生成式人工智能服务管理暂行办法》,已于8月15日起施行。作为首部针对生成式人工智能的专项立法,《办法》积极探索分级分类的精细化治理路径。
      
       中国信通院参与了《办法》的起草过程。在石霖看来,从源头治理而言,企业是人工智能治理的重要实践者与行动者,人工智能治理落地的重任最终仍需落到企业身上。从治理环境而言,企业是最主要的市场主体,构建完善的人工智能治理体系有助于营造良好的市场氛围。从治理效果而言,企业是人工智能治理的实操者,是确保人工智能技术在正确道路上发展的重要防线,其履责水平的高低直接关系到人工智能治理工作的水平。
      
       大模型如何安全地“拥抱”各行各业?他表示,要结合产业难点,以人工智能全生命周期为基础,从企业内部管理层、业务层、算法层、数据层出发,构建企业人工智能治理落地全景图。通过梳理宏观要求具体实施路径,将宏观要求在企业内部进行穿透,落实到企业合规的各个环节。
      
       当前,国际大型科技公司绝大多数都在积极研究人工智能治理路径。以蚂蚁集团为例,从2015年就开始较为系统的可信AI建设,2023世界人工智能大会上发布的“蚁鉴2.0”就新增了助力AIGC(生成式人工智能)应用安全的评测能力,可识别数据安全、内容安全、科技伦理3个大类数百种风险,服务于数字金融、教育、文化、医疗、电商等领域的复杂业务场景。在金融领域,可信AI技术体系可全面支持多模数据类型,在反欺诈、反洗钱、反赌博、企业联合风控、数据隐私保护等多风控场景落地,支撑支付宝全风险域的防御需求。
      
       姚伟斌认为,AI安全可信是一道非常难的科学命题,它希望达到的是超大规模数据生成学习范式下的安全、可控、可靠,以AI安全和鲁棒性、可解释性、隐私保护和公平性为核心的可信AI,已成为新阶段平衡AI创新与风险的核心技术手段。他还表示,人工智能的强技术性、应用广泛性、影响深远性,还需要重视生态打造,从底层架构、到中间算法、再到上层应用,需要各行各业从业者参与,构建多元治理格局。