网易伏羲中文预训练模型玉言登顶 FewClue 榜单,助力中小企业降本节能
近日,网易伏羲在中文语言理解权威评测基准 FewClue 榜单登顶,在 IFLYTEK (长本文分类)、 CLUEWSC (代词消歧)、CSL (论文关键词识别)、CSLDCP (学科文献分类)等多项单任务中取得第一。这也是 FewClue 榜单上,第一次有人工智能模型与人类标注水平的差距缩小到 10 分以内,其中 CSLDCP (学科文献分类)任务首次超过人类水平。
据了解,FewCLUE 是 CLUE 推出的一项中文小样本学习评测榜单,用来评估预训练模型是否能够通过小样本学习来掌握特定的自然语言处理任务。同时,研究人员也可通过相关测试评估 AI 模型再学习能力和快速应用能力。而从结果来看,网易伏羲的模型玉言对中文的理解能力,已经接近甚至在部分任务上超过一个受过相关训练的人类。
更值得一提是,玉言具备的自然语言处理能力可应用于语音助手、智能客服、新闻传媒、游戏创作、智能决策等领域。而在获得这些能力背后的模型训练体系及应用方法则验证了基于超级模型进行二次训练和快速应用的可能性。在目标领域通过少量标注样本极大的提升应用的效果,从而节省大量的人力成本。
人工智能研究的诞生到现在已经有 60 多年的历史,近些年的深度学习掀起了人工智能的新一波浪潮。OpenAI 发布的 GPT 系列模型将自然语言处理水平推向了新的高度,也证明了大规模预训练的潜力,为智能服务应用场景提供最重要的基石。但是,这些如雨后春笋般涌现的大规模预训练模型都是以文本生成为导向,在语义理解方面受限于其技术局限,效果不佳。
因此,业界为语义理解任务重新训练模型,例如 BERT、DEBERTA 等。文本生成任务和语言理解任务分别训练,这不仅是对算力和成本的巨大消耗,也不符合当下社会对低碳发展的要求。是否将预训练生成模型通过少量的二次训练转换为理解模型?玉言模型正是基于这个出发点的一次成功尝试,将生成模型通过少量的二次训练转换为高准确度的语义理解模型。更重要的是,这一方法的成功实践,能有效帮助中小企业降本节能。
据该项目团队介绍,玉言模型的前身是网易伏羲自研的 50 亿 GPT2 生成模型,通过二次训练变成语义理解能力较好的 Prefix-LM,相比于原来的 GPT2 模型,只是 attention mask 形状不同,Prefix-LM 可以直接使用许多开源的 GPT 加速库进行推断加速。
玉石二次训练的主要方法包括在 Prefix 部分增加 MLM 损失函数,同时使用增强 Position Embebedding 的方法去进一步强化 Prefix 部分的编码效果等。在任务数据集处理方面使用类似于 T0 的基于模板的方法,将 FewClue 的数据集在二次训练时混入训练语料中。
另外,FewClue 提供的无标签数据同样被构造模板,处理完成后加入训练语料中。使用模板的方法可以自然地实现多任务学习,大大降低语义理解大模型的训练成本,更加有利于工程落地。"同时也非常感谢浪潮共享了他们的部分预训练文本,为玉言模型训练提供了充分的数据。"项目团队相关负责人表示。
网易伏羲成立于 2017 年,是国内专业从事游戏与泛娱乐 AI 研究和应用的顶尖机构。网易伏羲已经发表 100 多篇 AI 顶会论文,拥有 200 多项发明专利,以及数字人、智能捏脸、AI 创作、AI 反外挂、AI 推荐匹配、AI 竞技机器人等多个领域的领先技术。目前,网易伏羲正在向游戏、文旅、文娱等产业开放 AI 技术及产品,目前已服务超 100 家客户,应用日均调用量超数亿次。
2022-05-06 15:34:17