现代信号与数据处理实验室
Advanced Data & Signal Processing Laboratory

ADSP实验室参加 ICLR 2025 国际会议

时间:2025-05-20
2025 年 4 月 25 日,国际学习表征会议(International Conference on Learning Representations,ICLR 2025)于新加坡滨海湾金沙会展中心拉开帷幕。作为 ADSP 实验室的在读硕士生,王之畅以论文作者的身份参与此次会议,开展学术交流与成果分享。

ICLR 2025 由国际机器学习协会(IMLS)与神经信息处理系统基金会(NeurIPS Foundation)联合主办。据悉,本届会议共收到来自全球的 6852 篇投稿,经过双盲评审等严格流程,最终录用 1524 篇论文。王之畅的研究成果通过评审,得以在这场国际学术盛会上进行展示。

大会讲座人山人海
会议期间,来自世界各地的科研人员与行业从业者围绕机器学习理论突破、算法优化及在计算机视觉、自然语言处理等领域的应用展开深入研讨。大会精心设置的主旨报告、专题研讨会、顶会顶刊交流等环节,为参会者搭建了优质的学术交流与合作平台。王之畅同学积极参与多项学术活动,与领域内的专家学者进行充分交流,在这一过程中,实验室研究成果获得了诸多专业反馈,这些宝贵建议为实验室后续的研究指明了新方向、提供了新思路。
和图灵奖得主Bengio合照
在 ICLR2025 丰富多元的分会场论坛中,涵盖机器学习多个前沿领域的学术探讨,为参会者搭建了深度交流的平台。王之畅同学携带关于 “UniCoTT” 的研究成果,参与了对话系统分会场的海报展示环节,与来自全球的专家学者进行学术交流。
对话系统分会场现场

在对话系统分会场,不少专家被 “思维链蒸馏” 吸引。王之畅介绍说,现在把思维链(CoT)教给小模型的方法不太好,比如没考虑推理的合理性和结构多样性,小模型学不到结构化的推理逻辑。

他的研究UniCoTT解决了这些问题:用 LLMs(比如 GPT)生成带链条、树、图结构的 “统一思维链”(UniCoT),这些结构能像桥梁一样把知识传给小模型(比如 BERT)。训练时,通过对比学习让小模型区分相似和不同的推理节点,再用 “结构一致性学习” 约束它的隐藏状态,让推理更符合预设的层级逻辑(比如树的分支关系)。

展示时,他用图对比了传统方法和 UniCoTT 的架构,举了个例子:在多选题任务里,用图结构的 UniCoTT 能让小模型准确率比基线高 10%+。专家们对怎么设计结构约束、不同任务适合啥结构聊了很多,还提了优化建议,这次交流让他后续研究思路更宽了。

王之畅在海报展台前
王之畅同学在完成对话系统分会场的海报展示后,应邀参加了全球领先数据标注企业 Abaka 晚间举办的行业沙龙活动。
Abaka沙龙合照
Abaka 长期为国内外头部大模型厂商提供标准化数据标注服务,其技术方案覆盖自然语言处理、计算机视觉等多领域数据预处理流程。活动中,王之畅同学与来自斯坦福大学、字节跳动人工智能实验室等机构的大模型研发学者建立学术联系,并与 Abaka 技术团队就数据标注产业现状展开交流。据团队介绍,当前大模型训练对多模态数据标注的精细化程度要求显著提升,例如在思维链(CoT)数据构建中,需通过分层逻辑标注实现推理过程的结构化拆解,此类需求推动数据标注从传统 “人力密集型” 向 “技术 - 人力协同型” 升级。
国内外研究人员热情讨论问题
此次交流引发王之畅同学两点思考:其一,数据标注作为模型训练的底层支撑环节,虽常隐于技术成果背后,却通过标准化流程构建、噪声过滤机制设计等关键环节,实质影响模型推理能力的上限,堪称 “看不见的基础设施”;其二,活动现场约 40% 的参会者来自中国科研机构或企业团队,其在大模型预训练优化、低资源学习等领域的研究成果已具备国际竞争力,这既让我感受到国内 AI 产业的蓬勃发展态势,也激励自己以更开放的视野借鉴前沿经验,在后续研究中强化技术落地思维与产业协同意识。
国内外研究人员热情讨论问题
作为首次参与国际顶会的青年学者,从分会场的技术探讨到产业沙龙的跨界交流,此次经历让王之畅同学切实体会到学术研究与工业实践的双向赋能价值,也为未来聚焦 “轻量级模型优化与数据生态建设” 的研究方向提供了新维度。