科研速递 | 广东智慧教育研究院师生论文被CCF A类会议SIGIR 2023录用

来源:广东省智慧教育研究院 发布时间:2023-04-22

      近日,由我院师生撰写的3篇论文(1篇长文,2篇短文)被SIGIR 2023录用!今年SIGIR共收到613份有效的短论文,录用154份(25.12%);822份有效全文论文,入选165份(20.1%)。

46届国际计算机学会信息检索大会(The 46th International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR 2023)计划于2023年7月23日-7月27日以线下的形式召开。SIGIR是CCF推荐的A类国际学术会议,在信息检索领域享有很高的学术声誉。

 入选论文(一)

    论文题目

Towards Robust Knowledge Tracing Models via k-Sparse Attention
    作者

黄淑妍 刘子韬 赵翔宇 罗伟其 翁健
    通讯作者

刘子韬

    论文概述

     知识追踪(Knowledge Tracing, KT)是根据学生的历史交互序列预测学生未来表现的问题。由于注意力机制能够捕获上下文的长期依赖性,注意力机制成为许多基于深度学习的KT (DLKT) 模型的重要组成部分之一。虽然这些基于注意力的 DLKT 模型取得了显著效果,但是仍然有许多KT模型容易出现过度拟合的情况,特别是在小规模教育数据集上。

因此,在本文中,我们提出了sparseKT,这是一个简单而有效的框架,可促进基于注意力的DLKT 方法的鲁棒性和泛化能力。为了从 KT 数据中学习稀疏注意力,我们将 k-selection 模块嵌入到标准注意力机制中,仅保留注意力权重最高的交互。

因此,我们提出了两种稀疏化方法:

     (1) 软阈值稀疏注意力

     (2) top-K 稀疏注意力

     我们表明,所提出的sparseKT能够使基于注意力的 KT模型忽略不相关的学生交互,仅关注与其密切相关的k个历史交互。我们在三个公开可用的现实教育数据集上将我们的 sparseKT与12 个最先进的 KT 模型相比,其提高了预测性能。

我们将实验相关数据和代码公开发布在

https://github.com/pykt-team/pykt-toolkit.

入选论文(二)

论文题目

AutoDPQ: Automated Differentiable Product Quantization Embedding Compression Framework

     作者

甘辛 汪宇豪 赵翔宇 王婉玉 王怡琦 刘子韬
    通讯作者

赵翔宇
    论文概述

      深度推荐系统通常涉及用户和项目的许多特征字段,其中包含大量低频特征

这些低频特征由于数量庞大且训练不足,会降低预测准确性并占用大量存储空间。当前已有部分研究探索了嵌入压缩技术,以解决存储空间与模型可预测性之间的权衡问题。

    然而,这些方法在压缩各个特征字段中低频特征的嵌入时在超参数搜索过程中依赖丰富的人类经验和计算资源, 因此存在一定困难。

    在本文中,我们提出了一个 AutoDPQ 框架,它可以自动地将每个特征字段中的低频特征嵌入压缩到不同程度。结果表明,AutoDPQ 可以在提高推荐性能的同时显著减少参数空间。此外,我们发现AutoDPQ 与各种深度 CTR 模型兼容并显著提高它们的性能

入选论文(三)

    论文题目

     Linear Attention Mechanism for Long-term Sequential Recommender Systems

    作者

刘朗鸣 赵翔宇 张持 高璟桐 王婉玉 范文琦 王怡琦 何明 刘子韬 李青
    通讯作者

赵翔宇

     论文概述

   基于Transformer的SRS模型在序列推荐系统(Sequential Recommender Systems,SRSs)中取得了显著效果。然而,在传统点积注意力机制中计算注意力矩阵会导致与序列长度呈二次方复杂度,从而导致长期序列推荐的高计算成本。

为此,我们提出了一种新颖的机制——基于Transformer 的 SRS 模型中的 L2 规范化线性注意力(L2 Normalized Linear Attention, L2NLA),在理论上提高了注意力的计算效率,同时保留了传统点积注意力的学习能力。
具体来说,通过彻底检查高效注意力机制的等价条件,我们证明L2NLA 具有线性复杂度,同时保留了注意力机制的属性。此外,我们通过统计视角解释提出的 L2NLA 机制,揭示了其潜在的效率特性。

      我们在两个公开基准数据集的基础上进行了大量实验,结果表明,L2NLA 与 Transformer 模型的结合与最先进的基于 Transformer 的 SRS 模型相比,在时间和内存效率方面具有显著改进,其性能相当甚至更优。