2025年4-7月:2025夏季

第137期讨论班
2025-06-27
LLM for Entity Alignment
主讲人  南艺璇

随着大语言模型的发展愈发成熟,实体对齐这一知识图谱中的关键任务也借助大模型的强大能力进行新一轮的技术革新。传统方法往往依赖结构或嵌入信息,难以捕捉复杂异构背景下实体之间的深层关联;而大模型具备强大的语言理解和知识推理能力,为解决这一难题带来了全新思路。本次讨论中将从多个维度探讨大模型在实体对齐任务中的应用,包括如何借助外部知识提升表示能力、如何设计高效的提示方式以适应模型特点,以及如何在计算资源与对齐效果之间实现平衡。通过回顾最新的研究动态,希望帮助大家了解大模型与实体对齐结合的发展趋势,并从中获得关于方法设计与研究方向的启发。

第136期讨论班
2025-06-20
推理时干预
主讲人  孙楠

推理时干预(ITI,Inference-Time Intervention)是一种轻量级且高效的激活干预方法,通过定位与真实性相关的注意力头,沿真实方向偏移激活值,直接在推理阶段修正模型输出。其核心创新在于:利用探针识别关键激活方向,结合稀疏干预策略,在最小侵入模型的前提下提升真实性(如在 TruthfulQA 中 True*Info 指标提升超 10%)。本次讨论将围绕 ITI 的几何干预逻辑、与监督微调相比的优点,以及其在多任务上的泛化性展开,探讨推理时干预如何成为优化 LLM 输出的新范式。

第135期讨论班
2025-06-06
大模型技术与生态前沿追踪
主讲人  汪卓商

2023年初以ChatGPT为代表的大模型进入大众视野,如今已经过去了两年多。在日常科研中我们往往关注自身的研究方向,然而大模型本身具有很高的应用性,学术界、工业界和开源社区在大模型的发展过程中均起到不可磨灭的作用,这意味着我们在学术研究以外需要获取更多的信息来了解大模型的最新发展动向。以往的讨论班大多专注于某一个方向进行深入的论文解读;本次讨论班,我们围绕大模型技术与生态的发展,结合相关报告与资讯,从学术界、工业界和开源社区三个角度,在宏观层面追踪大模型的演进,最后针对若干问题进行前沿思考。希望帮助大家梳理大模型发展趋势,获得科研之外更加全面的认识。

第134期讨论班
2025-05-30
大模型思维链压缩
主讲人  刘振羽

随着大语言模型在自然语言处理领域的广泛应用,其生成的复杂推理过程(即思维链)虽然能够提供深度的逻辑分析,但也带来了计算成本高昂和推理效率低下的问题。思维链压缩技术应运而生,旨在通过优化模型的推理过程,去除冗余信息,从而显著提升推理效率,同时尽量保持推理的准确性和完整性。本次报告聚焦思维链压缩的核心技术原理,包括 Token 重要性分析、动态推理深度调整、隐式思维链等方法。通过对现有技术的分析,本次汇报将探讨了思维链压缩的优势与挑战,探究目前该领域可借鉴的研究成果,并展望了其未来的发展方向。思维链压缩技术的不断发展有望为大语言模型的高效应用提供新的思路,推动自然语言处理技术的进一步发展。

第133期讨论班
2025-05-16
基于图优化的多智能体系统
主讲人  董彦

在大语言模型驱动的人工智能研究中,多智能体系统(Multi-Agent System, MAS)展现出强大的任务协同和集体智能能力。近年来,研究者尝试将图结构引入多智能体系统设计之中,借助图优化理论提升智能体间的通信效率、系统鲁棒性与整体性能。本次报告聚焦于最新相关研究成果,它们分别从自动构建高效拓扑、优化任务导向的通信结构,以及保障系统安全等角度出发,为多智能体系统的构建与调控提供了系统化的方法框架。图的引入不仅为LLM时代的智能体协作提供了新的角度,也为更高层次的智能组织形式奠定了理论基础。

第132期讨论班
2025-05-16
大语言模型可解释性技术的应用
主讲人  刘一龙

近年来,机制可解释性研究致力于打开大型语言模型的“黑箱”,理解其内部的复杂运作原理。其中一个核心观点是线性表示假设(Linear Representation Hypothesis, LRH),即模型会将重要的概念和特征编码为其内部激活空间中的特定方向 。本次报告将聚焦基于此类技术剖析并进而尝试调控LLM的关键行为的研究。这些工作分别探讨了模型拒绝行为的调控机制、模型对自身知识的认知与“幻觉”现象的内在关联,以及外部工具交互时的置信度校准。通过揭示这些行为背后的运作原理,这些研究为提升语言模型的安全性、可靠性和真实性提供了新的思路与方法。

第131期讨论班
2025-05-09
大模型多比特水印
主讲人  王一丹

随着大语言模型(LLM)在自然语言处理领域取得显著进展,其快速生成文本的能力也带来了信息传播和知识产权方面的挑战。水印技术,尤其是多比特水印(Multi-bit Watermarking),通过嵌入可识别的标记来实现内容追踪和来源归属,正逐渐成为解决大语言模型滥用问题的有效方案。然而,如何在提升水印可检测性的同时,兼顾文本质量与鲁棒性,仍是该领域亟待解决的核心挑战。本次讨论班将聚焦大语言模型多比特水印的最新研究进展,系统梳理当前主流的多比特水印范式与技术路径。

第130期讨论班
2025-04-25
从变分自编码器到基于扩散模型的文本生成
主讲人  李英杰

扩散模型是近年来的主流生成模型之一,通过前向扩散过程(向数据中逐步添加高斯噪声) 与反向去噪过程(通过神经网络学习从噪声中恢复真实数据),实现高质量的数据生成,目前主要应用于图像生成领域,在文本生成领域也展现出初步的应用潜力。本次讨论班主要介绍从变分自编码器(Variational Auto-Encoder,VAE)到扩散模型的技术路线的理论推导,分析不同生成模型之间的联系,并简要介绍扩散模型在文本生成方面的技术进展。





 2025年3月-2025年4月:大模型智能体专辑

第129期讨论班
2025-04-11
不确定性在智能体中的应用
主讲人  宁钰成

不确定性(Uncertainty)在机器学习中已有成熟的研究体系。近年来,大模型和智能体凭借强大的文本生成、推理与决策能力,正逐步应用于医疗保健、法律、自动驾驶等高风险领域。然而,大模型由于内生的幻觉问题,经常会生成看似合理但实际上错误的回应。不确定性量化(Uncertainty Quantification)通过估计模型输出的置信度,实现风险缓解与选择性预测,从而增强智能体的可信度。本次讨论班将围绕不确定性在智能体中的应用展开,首先综述基于大模型的不确定性估计方法;随后结合幻觉检测与缓解、问题澄清、规划推理、工具调用及多智能体通信五大具体场景,解析不确定性的应用,探讨如何通过不确定性建模推动智能体从传统的“功能扩展”系统向具备风险可控性、决策透明性、人机协同性的可信系统进化。

第128期讨论班
2025-03-28
大模型工具学习与自主智能体初探
主讲专家  从鑫

随着预训练技术的飞速发展,以ChatGPT为代表大模型展现出了惊人的智能水平。然而,大模型在特定领域的任务上仍存在一定的局限性,距离实际应用仍有一段距离。人类社会是高度分工化的,不同专业领域需要有不同的专业知识和技能才能处理领域内的复杂任务。本报告聚焦于大模型工具学习,介绍大模型如何能够理解和使用各种工具来完成任务,内容包括工具学习统一框架、主要挑战和未来方向。

第127期讨论班
2025-03-14
基于LLM的智能体规划
主讲人  张竞文

随着大语言模型的发展,智能体规划任务不再依赖于符号方法,功能变得更加强大。但是目前基于LLM的智能体规划任务也面临着许多困难,例如高质量的轨迹数据稀缺、长上下文等复杂任务上表现不佳和在规划中出现幻觉等。为此,研究如何有效地构建轨迹数据、如何高效处理复杂任务以及如何减少幻觉问题,已成为当下的重要课题。本次讨论班将从这三个问题出发,探究基于LLM的智能体在规划问题上的新方法。

第126期讨论班
2025-03-08
社交智能体模拟&智能体检测
主讲人  沈寒阳

社交媒体平台是人们分享日常经历、表达个人观点的关键空间。随着大型语言模型的快速发展,基于这些模型的智能体逐渐具备了类人化的特征。然而,这一进步也导致了一个严峻问题:利用智能体生成的虚假用户数量不断增加。这些虚假用户通过社交网络的快速传播能力和广泛影响力,散播谣言、操纵公众舆论,对社会动态和个人生活产生了显著的负面效应。为此,研究如何有效地建模和检测这些社交智能体,已成为当下的重要课题。本次讨论班将聚焦于社交智能体建模和智能体检测,探究其中的潜力和挑战。

第125期讨论班
2025-02-28
LLM-based Multi-agent System
主讲人  吴咏萱

随着人工智能的发展,多智能体系统正成为推动科学研究、网络安全和大模型社会演化的重要方向。通过多个自主智能体的协作,多智能体系统实现了更高效的推理、规划和决策,广泛应用于科学发现、网络安全分析以及复杂交互系统的构建。近年来,智能体驱动的科学研究和智能体在大模型社会中的角色逐渐受到关注,这些基于大模型的智能体具有更强的推理能力和跨领域协作能力。本期讨论班将围绕基于大模型的多智能体系统在图推理和网络结构安全方面展开探讨。





 2025年2月:2025春季

第124期讨论班
2025-02-21
水印在版权保护上的应用
主讲人  李豪

随着人工智能技术的发展和普及,版权保护成为人工智能领域中值得关注的难题。尤其是在生成式AI技术蓬勃发展的背景下,如何确保原创内容不被非法复制和滥用,成为了业内亟待解决的问题。水印因其有效性成为一种有希望的版权保护候选技术,在多个场景中均有应用。前期讨论班已介绍了语言模型水印的最新进展,本次讨论班将介绍水印在Prompt、模型和数据集版权保护上的应用,希望对大家的工作有所启发。

第123期讨论班
2025-02-14
Why DeepSeek?
主讲人  张岚雪

自1月20日发布以来,Deepseek R1以低成本、高性能的颠覆性优势,成为大语言模型迈向推理时代的标杆,并对高价闭源模型(如OpenAI O1)形成强力冲击。为什么Deepseek R1能够走向成功,相较于之前的版本保留了什么又更新了什么?训练过程中的一些现象如何解释?让我们一起在本次讨论班揭晓答案。





 2024年12月-2025年1月:2025新年专辑

第122期讨论班
2025-01-16
证据学习与OOD检测
主讲人  宋传承

证据学习(Evidential Deep Learning, EDL)引入了证据理论(Evidential Theory)将类别概率分布建模为一个Dirichlet分布,将模型输出的logits作为主观意见的证据(evidence),从中计算预测的置信度和不确定性,因为EDL量化地提供了分类任务的不确定性估计,因此天然适用于OOD检测任务。本次讨论班回顾了EDL的理论基础,并探讨其用于OOD检测的不同尝试。

第121期讨论班
2025-01-09
机生文本检测最新进展
主讲人  朱孝伟

不断更新迭代的LLM具备越发强大的文本生成能力,其生成文本与人类书写文本也越来越相似。LLM在科研与工业领域中提高众人生产力的同时,也存在潜在的危害,不法分子可能利用LLM生成虚假新闻、垃圾邮件、恶意评论等,因此开发先进的AI生成文本检测方法是迫切需要的。自2018年以前至2024年,涌现了许多的AI文本检测方法,包括可监督的方法(例如RADAR、MMD-MP、MPU等)以及零样本方法(DetectGPT、Binoculars等)。本次讨论班让我们走进NeuIPS 2024的相关研究,追踪AI文本检测领域的最新研究。

第120期讨论班
2025-01-03
DDPM及其在用户建模中的应用
主讲人  周红

扩散模型是一类逐渐兴起的生成模型,通过模拟数据生成过程中的逐步扩散与去噪,实现高质量的数据生成。作为该领域的经典代表,Denoising Diffusion Probabilistic Models (DDPM) 在生成图像、音频等多种任务中表现出色,其背后的数学原理奠定了扩散模型的理论基础。同时,扩散模型在推荐系统中的应用也逐步显现出潜力。例如,通过扩散模型,推荐系统能够更精准地进行用户建模,捕捉用户行为中的潜在模式。这种方法利用扩散模型重新定义了个性化推荐任务,为复杂的用户行为建模提供了新的解决方案。本期讨论班将介绍扩散模型的基本概念,并深入探讨Denoising Diffusion Probabilistic Models (DDPM) 的数学原理,最后我们将讨论DDPM如何在推荐系统中进行用户建模。

第119期讨论班
2024-12-27
暗语(行话/黑话)识别与发现
主讲人  董方龙

暗语(也称行话、黑话)是一种用户为规避监管、掩饰非法活动而对敏感词汇进行特殊替代或歪曲的表达方式。它具有高度的隐蔽性。专业性和创造性,传统的基于规则或简单语义分析的方法难以应对。因此,收集并标注与暗语相关的高质量文本、深度提取特征捕捉隐晦的语义表达、设计高效的暗语识别框架与评估体系,是暗语识别发现的研究核心。本次讨论班将重点围绕这三方面展开,并探索与大语言模型结合的可行性。