2024 年 6 月 6 日中国计算机学会大模型论坛(CCF FoLM)主题会议在北京顺利举办。本次会议主题为“大模型技术进展与挑战”,各位专家围绕大模型技术的前沿动态、发展的新趋势及技术挑战等议题展开深入探讨,为广大从业者、研究者提供了一场丰富的学术盛宴。本次会议还宣布了“CCF 大模型安全挑战赛”的正式启动!
2024 年 6 月 6 日,中国计算机学会大模型论坛(CCF FoLM)主题会议在北京清华科技园科技大厦举办。
CCF 大模型论坛于今年 3 月正式成立,由腾讯、中国移动、三六零集团、海光信息、智谱AI、第四范式、稀宇科技、并行科技、无问芯穹、瑞莱智慧科技、生数科技、清程极智、麦伽智能、面壁智能、聆心智能共同发起,旨在建设专注于大模型研究与应用的领先智库和高效交流平台,促成国内大模型的生态合力,共同推进大模型技术的前沿发展和应用。
本次会议上午部分由 CCF 大模型论坛学术秘书、复旦大学邱锡鹏教授主持,下午部分由 CCF 大模型论坛学术秘书、清华大学东昱晓教授主持。
CCF 杰出会员、常务理事、CCF 大模型论坛副主席、中国人民大学人工智能学院院长文继荣教授作开幕式致辞。
智谱AI GLM 技术团队研究员顾晓韬、清华大学长聘教授、国家杰青黄民烈、华为语音语义首席科学家刘群、复旦大学计算机学院教授邱锡鹏、阿布扎比技术创新研究所研究员 Quentin Malartic、清华大学电子工程系长聘教授、系主任汪玉、清华大学计算机系长聘教授、清华大学计算机系高性能所副所长翟季冬、清华大学计算机系博世 AI 教授、清华大学AI研究院副院长朱军、哈尔滨工业大学计算学部长聘教授,人工智能研究院副院长车万翔等大模型领域专家学者受邀出席并做主题报告。(按姓名拼音首字母排序)
来自阿布扎比技术创新研究所的Quentin Malartic 博士发表了主题报告《The Falcon Series of Open Language Models》,他主要讲解了Falcon 模型的研究进展,包括数据处理、训练分解、模型架构,以及如何去构建对话树来进行研究。他还介绍了对于 Falcon 模型的评价细节,和视觉语言模型的情况。
CCF大模型论坛常委会员、清华大学黄民烈教授围绕大语言模型尤其是中文大语言模型的对齐和超级对齐问题,阐述了其在弱到强泛化(weak-to-strong generalization)、规模化监督(scalable oversight)、精确对齐、黑盒对齐、模型权重外插、自动红队测试等方面的工作。
清华大学汪玉教授的报告聚焦于大模型时代下软硬件系统方面的关键挑战和发展现状,向参会嘉宾们介绍了面向 AI 2.0 的高能效电路与系统模块设计方法,包括从算法模型优化到硬件架构设计的一系列软硬件协同优化策略。在报告中,他还简要介绍了 AI 2.0 时代算力生态建设的初步探索,并对未来发展的新趋势进行展望。
智谱AI顾晓韬博士,针对 Agent 这一领域,介绍了Agent 能够感知环境、理解任务、规划步骤、调用工具、执行动作从而完成复杂任务的能力特点,并向大家概述了 GLM 技术团队面向 Agent 能力从评测、优化、多模态能力等方向做的技术尝试和探索。
CCF 大模型论坛副主席、华为语音语义首席科学家刘群教授介绍了华为盘古大模型的技术和应用概况,并讲述了盘古语言大模型开发过程中采用的一些核心技术和面临的挑战,具体包括模型架构、训练优化、推理加速、自我提升等方面。
CCF大模型论坛执行委员、清华大学朱军教授介绍了多模态扩散概率模型在图像、3D 和视频生成的最新进展,重点介绍了 Vidu 视频大模型的三大更新:(1)首发一键生成 32s 长视频;(2)发布视频/文本到音频生成技术,Vidu 生成的视频有声音了;(3)Vidu4D——从 Vidu 生成的视频通过高效重建,生成 4D 的视频。
CCF大模型论坛常务会员、哈尔滨工业大学车万翔教授指出现有的思维链研究仍面临两大挑战:(1)缺乏对思维链能力评估的定量指标;(2)缺乏对思维链能力优化的指导。为此,他们引入了一种新颖的“推理粒度”框架来解释思维链技术的机理,并使用该框架改进思维链的推理能力。进一步地,通过在众多模型和任务上的实验,表明了该框架的存在性和合理性。此外,该框架还能用来解释多种思维链策略的有效性,并能够从两个角度共同指导思维链策略的优化。
CCF大模型论坛执行会员、清华大学翟季冬教授就当前大模型技术持续不断的发展,其对算力的需求持续增大的这一问题展开讨论,并指出当前中国在获取最先进的芯片方面面临巨大的挑战。如何充分的发挥国产算力硬件性能,让国产算力易用好用,满足大模型对算力的需求具备极其重大意义。针对此挑战,他们团队在国产智能算力上开展核心基础软件相关研究。其中,在新一代国产超级计算机上,他们从编译器、算子库、并行加速和负载均衡等方面对大模型进行了深入优化,优化后的训练性能达到 EFLOPS。
邱锡鹏教授则从大语言模型展现了通用AI助手广阔的研究和应用前景,但仍存在一定不足的这一问题出发,向大家介绍了大语言模型 MOSS 2 的研发进展以及关键技术,包括高效模型架构、多模态扩展、工具使用,最终实现可交互、可学习、可解释的世界模型。
此外,本次会议还举办了两场别开生面的 Debates。黄民烈(清华大学)、俞涛(零一万物联合创始人)、顾晓韬(智谱AI 算法研究员)、李伯勋(无问芯穹算法负责人)、曾国洋(面壁智能 CTO)、何家傲(清华大学博士研究生)等来自不相同的领域的专家学者,就「超级对齐的本质是什么?」、「Maas 是个伪命题吗?」等问题,展开了现场交锋,为广大参会者呈现了一场精彩且深刻的思想探讨。两场 Debates 分别由邱锡鹏教授、CCF大模型论坛主席唐杰教授主持。
黄民烈:超级对齐本质上应该是如何实现一个大模型的自我进化、自我迭代的学习过程。目前依旧很初步的尝试,很多东西没有做,但需要坚信不移地一步一步从小的尝试开始,逐步实现真正发现模型弱点,并进行自动修复。
文继荣:大家认为,现在的阶段,或可预见的阶段,对齐尤其超级对齐依旧很重要的。我们应该重视大模型的安全性,尤其是模型智力水平慢慢的升高的时候,将来会不可能会出现失控的风险,所以对齐很重要。
当“超级对齐”这个词出来的时候,大家就要意识到,不再只是简单跟人类价值观对齐了,它现在已经渐渐从关注模型安全,变成了一种通过反馈来提高个人的方式,实现机器自我演化。另外,过度的对齐也可能损害模型的能力和“人性”。
俞涛:我们在对齐 GPT-4 水平模型的过程中,主要方法是基于人类专家反馈数据的强化学习。但人类将无法规模化地为下一代模型提供较为可靠的监督信号,或者给予反馈的效率远远低于 AI 迭代的效率,因此我们目前的对齐技术不能扩展到超级智能。我们应该做好超级对齐的研究和技术预研,包括 weak-to-strong generalization(从弱到强的泛化)、可解释性(可解释性)、scalable oversight(可扩展的监督),为 AGI 的到来做好准备。
刘群:大模型纯粹是从语言文本训练出来的,作为对齐,要把语言空间的东西跟这两个空间对齐起来。我们说安全的时候,更多考虑的是跟意识世界的对齐,跟物理世界的对齐同样重要。我们要对客观世界反馈,不光是安全的问题,在技术上来说是很类似的。研究超级对齐,是让语言模型真正为我们服务,反映真正的客观世界、真正的意识世界,这是它有用的地方。
顾晓韬:AI 行业对超级对齐的关注首先说明 AI 技术发展确实到了一个新的高度。超级对齐除了考虑未来超级智能可控性的问题,也包括人类监督到达瓶颈后通过模型与外部环境自主交互等方式获取监督信号去逐步提升智能水平的途径,核心目标还是加深我们对智能本身的理解。
李伯勋:如果我们从云的角度来讲,我更希望看到很多国产芯片在这方面做到更高的性价比。从端上看,未来 MaaS 会有很多端上的应用。对硬件改造比较大,例如如何用更低成本提高存储带宽。
何家傲:MOE 还是未来较为重要的方向,以目前的硬件架构来讲,MOE 是一种最适合的稀疏结构,MOE 是为了让模型做的很大,如果涉及到多机,比如要用几千、上万张卡去训练,并行策略会带 MOE 负载下面造成更多性能上的影响。
曾国洋:MOE 的训练技术也是在持续不断的发展的。我们最开始都尝试过 MOE,但是当时大家的训练技术也不是非常好,训练出来的 MOE 比真正的大参数量模型有非常多的距离。随技术越来越提升,我们得到了 MOE 模型效果也会逐渐提升。MOE 是值得看好的,也是有必要做的。
会议进行过程中,清华大学教授黄民烈代表清华大学基础模型研究中心宣布了CCF大模型安全挑战赛的正式启动,该赛事由中国计算机学会(CCF)作为主办单位, 中国计算机学会大模型论坛(CCF FoLM)作为承办单位,携手清华大学基础模型研究中心。
赛事设置了两个赛道任务:「通用的大模型目标劫持」和「内容安全检测器的红队攻击」。诚挚邀请各方专家和学者热情参加大模型安全挑战赛,共同探索解决这些安全问题的创新方法和策略,为大模型技术的健康发展保驾护航。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
荷兰埃因霍温市议会以34:6的投票结果,支持ASML发展计划以挽留行业巨头
嫌疑人被监视居住期曾遭疲劳审讯,检察机关排除相关有罪供述,2名侦查人员被追刑责
欧盟“下手”:加征38.1%关税!上汽集团回应!中汽协也发声:坚决不能接受
马士基:6 月 26 日起对中国港口出发集装箱实施 PSS,费用 300 美元/箱
比Samba复古,比勃肯鞋时髦!2024最火的4双运动鞋,你知道几个?
与中坚力量共成长,2024建信信托艺术大奖评委会特别奖获奖艺术家凌海鹏