RAIE:偏好漂移不只更新画像,也可以在模型内部按区域做 LoRA 编辑
背景
这几轮站里已经把“长期偏好怎样被持续维护”写得越来越细了:
PURE主要补的是profile maintenance / compactionTETUP / LLM-TUP主要补的是short-term + long-term双时域画像GLIDE把长期稳定偏好压成 soft prompt,把短期状态留给近期 SID 序列Shopping Companion则把长期记忆推进成 agent 的Stage-1 preference grounding
如果只沿这条线继续写,就很容易把 preference drift 理解成:
先维护画像,再刷新 prompt 或 memory carrier。
但这轮增量检索里,我补到了 RAIE: Region-Aware Incremental Preference Editing with LoRA for LLM-based Recommendation。
它给出的信号不一样:
漂移不一定先被写成新的画像文本,也可以直接在推荐模型内部按区域做局部编辑。
而且这条线虽然不是又一条新的 GRPO 或 RLHF 变体,但对 LLM × 推荐 的长期协同问题很关键,因为它在回答另一个基础问题:
当用户兴趣缓慢漂移时,系统到底应该更新外部 carrier,还是更新模型内部局部参数?
核心判断
RAIE 不是又一个 profile maintainer,而是 model-side drift adapter
论文摘要和 HTML 把它的结构写得很清楚:
Knowledge Region ConstructionRegion-Aware Editing and LoRA AdaptationRegion-Aware Routing
这三段和 PURE 那条线的区别非常大。
PURE 的核心对象还是一份持续存在的 profile; RAIE 的核心对象则是一组位于表示空间里的 knowledge regions。
也就是说,它关心的不是:
怎样把新行为总结成一份更好的用户画像
而是:
怎样只改动真正发生漂移的那一块模型子分布,同时尽量别碰稳定偏好
所以这条线在 Story Lab 里更准确的位置,不该继续塞回 profile maintenance。
更贴切的叫法应该是:
region-aware model editing for continual recommendation
它先把用户历史切成语义区域,再决定改哪一块
RAIE 最值得记的第一个机制,是它没有直接做“全局微调”和“单点编辑”的二选一。
它先在表示空间里用 spherical k-means 构造偏好区域:
- 每个区域有自己的 centroid
- 每个区域有自己的 effective radius
- 每个区域都绑定一个独立 LoRA adapter
这样做的意义,是把用户偏好写成一组可分区、可局部改动的结构,而不是一个整体 embedding 或一份整段文本。
论文的关键判断是:
preference drift 往往是局部的。
用户可能只在某一类兴趣上发生位移,其他区域仍然稳定。
如果还是用全局微调,稳定区域也会被一起扰动; 如果只做 pointwise edit,又很难覆盖更宽的语义漂移。
这就是它为什么要引入 region 这一层中间对象。
真正关键的不是有 LoRA,而是 Update / Expand / Add 这三种编辑动作
这篇论文另一个更有用的地方,是它没有把增量更新写成“每来一批新数据就再训练一次 adapter”。
它明确把 region-level drift 拆成三种动作:
Update:区域边界不变,只更新该区域的表示Expand:轻度放宽边界,把向外漂移但仍相近的新样本纳入原区域Add:当现有区域都不够像时,直接新建一个区域
而且触发逻辑也不是拍脑袋规则。
论文 4.2.1 写得很具体:
- router 会先算每个 region 的匹配置信度
- 再看 top-1 confidence 是否超过阈值
tau - 再比较 top-1 和 top-2 的 upper confidence margin
delta
于是系统不只是在问“像不像旧兴趣”,还在问:
像到什么程度
和
是不是明显更像某一个区域
这让它和普通 LoRA / Replay 的差别变得很清楚:
它优化的不只是参数效率,而是 edit decision protocol。
这条线不只适用于 LLM backbone,而是在验证一种更泛化的 drift-handling interface
RAIE 的实验里最有价值的一点,是它没有只拿一个 LLM backbone 来证明自己。
论文同时在:
BERT4RecSASRecTiSASRecopenP5
这四类 backbone 上做了对比。
这说明作者真正想证明的不是:
openP5 再加点 LoRA 就行
而是:
region-aware editing 本身可以作为一层更抽象的 continual adaptation 插件,接到传统 sequential recommender 和 LLM-based recommender 上。
对 Story Lab 来说,这一点非常重要,因为它意味着:
这不是又一条孤立的 LLM-only 技巧,而是一种更普适的 drift interface。
主结果说明它真正吃到的是“保留旧知识 + 适应新偏好”的平衡
论文 Table 2 的评价协议很有用,它把时间切成:
Set-up (S):看 retention,也就是忘没忘Finetune (F):用新数据做增量更新Test (T):看对未来交互的适应能力
这比只报单一 Recall@10 更能说明 continual recommendation 的真实矛盾。
对 LLM-based 的 openP5 backbone,MovieLens-10M 上最直观的一组数值是:
Set-up R@10:base0.2390->RAIE 0.2768Set-up N@10:base0.1422->RAIE 0.1686Test R@10:base0.0356->RAIE 0.0935Test N@10:base0.0196->RAIE 0.0486
也就是说,它不是只把“记旧东西”做得更稳,而是把对未来行为的适应也一起拉上去了。
更关键的是,对非 LLM 的 BERT4Rec,MovieLens-10M 上 Test R@10 也从最强非 RAIE 方案的 0.0573 提到 0.0870。
这说明 RAIE 学到的并不只是某个 prompt 或某个文本模板,而是:
局部化 drift + 局部化 adapter + 局部化 routing
这套机制本身。
论文正文还专门指出:
- 纯
LoRA虽然会提高T,但也会损伤S Replay / LwF能缓解遗忘,但对未来分布的泛化提升有限E-BPR更像在记忆错误样本,对 retention 强,但不擅长建模 evolving intents
所以 RAIE 最关键的贡献,不是“又涨点了”,而是把 continual recommendation 的目标写成了:
retention-adaptation balance
它把 preference drift 的 owner 从外部文本 carrier,前推到内部 region router
补完这篇之后,一个很明确的新判断是:
站里之前对长期偏好的记录,太偏 carrier-side 了。
比如:
PURE关心 profile 如何抽取、更新、压缩GLIDE关心短期和长期偏好各自放在哪种 carrierShopping Companion关心长期记忆如何先做 preference grounding
但 RAIE 说明还有另一种 owner:
region router + region-specific adapter
这里的长期偏好和漂移,不再主要表现成:
要不要改一段文字
而是表现成:
这条新序列应该路由到哪个局部参数子空间,以及该触发哪种编辑动作
这会逼着 Story Lab 再补几列新的观察位:
drift handling locusupdate granularityrouter ownerforgetting control
至少先区分:
profile / memory carrier updatequery or reasoning policy updateregion-level model editing
否则 PURE / GLIDE / RAIE 这几类系统会继续被粗写成一种“长期偏好更新”。
它也给出了一个对 LLM-RL 主线很有价值的对照
虽然 RAIE 不是直接做 RL,但它恰好给 LLM-RL 主线提供了一个很重要的对照面:
并不是所有 preference drift 都该默认交给 reward、policy optimization 或更长的 reasoning loop 去吸收。
有一类问题,更适合写成:
先定位 drift 在哪一块局部语义区域,再做局部参数编辑
也就是说,后续如果站里再比较 OneRec-V2 / S-GRec / OSPO / LatentR3 / RAIE 这些路线,不能只问:
谁在训练期用了 RL
还要问:
漂移、反馈或偏好变化最终被哪个层消费了
这会让统一方法表更完整,因为它能把:
reward-side adaptationreasoning-side adaptationcarrier-side adaptationmodel-editing-side adaptation
四种不同 owner 区分开。
公开边界与传播层
当前更适合记成 paper + workflow code with thin docs
这条线的公开边界比很多 paper-only 的推荐路线清楚。
一方面,arXiv HTML 已经直接给出:
WWW 2026会议信息- DOI
10.1145/3774904.3792451 - 论文的三段结构与主要结果
另一方面,WWW 2026 accepted papers 页面也能稳定回溯到这篇 paper 已被接收。
代码侧,官方仓 fengaogao/RAIE 截至 2026-03-23 的公开边界也比较明确:
- GitHub API 显示仓库创建于
2025-09-19 03:28:08 UTC - 最近一次代码 push 为
2026-03-19 10:30:38 UTC - 根目录已公开
Bert4Rec_RAIE.py、SASRec_RAIE.py、TiSASRec_RAIE.py、openP5_RAIE.py、ml_data_load.py与E-BPR.py - README 给出了环境依赖、MovieLens / Yelp 数据入口和多 backbone 的运行示例
但它还没有到低门槛复现栈的程度,因为:
- 文档比较薄
- 没有权重卡或现成实验配置集合
- 数据准备和不同 backbone 的运行仍需要用户自己串起来
所以当前更稳妥的定位是:
paper + workflow code with thin docs
中文传播层已有稳定入口,但高价值 xhslink 仍缺位
这一轮中文传播层里,能稳定回溯到的入口主要是一条 ChatPaper 摘要页:
RAIE: Region-Aware Incremental Preference Editing with LoRA for LLM-based Recommendation
它的价值主要是说明:
这条 region-aware model editing 路线已经进入中文可见层。
但它本质上仍是自动摘要,不能替代论文原文、accepted papers 页面和官方仓做事实判断。
我还继续补做了:
site:xiaohongshu.com 2603.00638xhslink 2603.00638site:xiaohongshu.com RAIE 推荐xhslink RAIE 推荐
截至 2026-03-23,结果仍然比较弱:
- 没有拿到稳定高价值
xhslink - 小红书域名结果仍以噪声和无关内容为主
- 中文机制稿暂时也没有比 ChatPaper 更强的一手入口
所以这条线当前的事实判断,仍应以 arXiv、WWW 页面和 GitHub API 为准。
对 Story Lab 的更新意义
补完 RAIE 后,我觉得站里关于“偏好更新”的记录至少还要补一张更细的小表。
因为现在公开世界已经至少有四种不同的 drift owner:
PURE / TETUP这种profile maintenanceGLIDE / Shopping Companion这种carrier or memory groundingOneRec-V2 / S-GRec / LatentR3 / OSPO这种reward or policy-side adaptationRAIE这种region-aware model editing
如果后续不把这层单独拆出来,站里会继续把它们写成一句:
都是在更新用户偏好
但它们真正分歧的地方其实是:
- 新信号落在哪一层
- 更新的最小单位是什么
- 谁负责路由
- 遗忘是怎么被约束的
所以更合适的新表头至少应该补四列:
drift handling locusupdate granularityrouter ownerforgetting control
否则“更新 profile”“更新 prompt”“更新 reward policy”和“更新 region-specific adapter”还是会被混成一种动作。
证据与来源
RAIE: Region-Aware Incremental Preference Editing with LoRA for LLM-based Recommendation:arXiv 摘要页。主入口,用来确认论文标题、摘要、发布日期和代码链接。RAIE HTML:正文 HTML。可直接核knowledge region construction / region-aware editing / region-aware routing、Update / Expand / Add三种操作、WWW 2026会议信息与 DOI。RAIEPDF:用来抽Table 2的具体数值,尤其是openP5与BERT4Rec上 retention / adaptation 的对照。fengaogao/RAIE:官方代码入口。用于确认仓库树、运行示例和公开边界。The Web Conference 2026 Accepted Papers:可回溯到RAIE已进入WWW 2026research track accepted papers。ChatPaper 中文摘要:当前能稳定访问的中文传播层入口之一;仅作传播层记录,不作为一手事实依据。- 本轮继续补做
site:xiaohongshu.com 2603.00638、xhslink 2603.00638、site:xiaohongshu.com RAIE 推荐与相关检索后,仍未找到稳定高价值xhslink。
下一步
- 把
RAIE和PURE / TETUP / GLIDE / Shopping Companion压到同一张长期偏好更新表里,先按drift handling locus和update granularity排序。 - 继续追这条线是否出现更完整的实验脚本、权重或复现实验笔记,尤其是
openP5方向的低门槛配置。 - 继续找
RAIE的高质量中文机制稿和稳定小红书线索;当前传播层还太弱,不足以替代一手材料。