首页 组会论文/报告列表(长期更新)
文章
取消

组会论文/报告列表(长期更新)

这是我组组会上讨论的论文与报告列表,按照时间倒序排序。每篇论文给出以下信息:

  • 论文链接:点击论文题目即可;
  • 出版信息:会议、期刊、预印本等;
  • 作者:一般不详细列举,因为复制一遍这些信息实在没什么意义,只大体写一下主要作者所在的机构。仅对感兴趣的、值得关注的作详细的标注;
  • 组会主讲人:均为本组博士生,以字母代替;
  • 内容简介(空着的是懒得写了…)。

我的其他关于论文的博文中出现论文元信息时,也遵从上述原则。对于需要详细讲解的论文,一般不会写内容简介。

2022-2023 第二学期

2023-05-25

DualPrompt: Complementary Prompting for Rehearsal-free Continual Learning

  • 会议:ECCV 2022
  • 作者:东北大学,谷歌
  • 主讲人:H
  • 内容:

Prompt-Tuning Few-shot learning

  • 主讲人:L
  • 内容:讲解几篇使用 Prompt-Tuning 的小样本学习工作的思想。

2023-03-02

Gradient Regularized Contrastive Learning for Continual Domain Adaptation

  • 会议:AAAI 2021
  • 作者:悉尼大学,香港中文大学,商汤
  • 主讲人:W
  • 内容:

Learnable istribution Calibration for Few-Shot Class-Incremental Learning

  • 发表:ArXiv 2022
  • 作者:中国科学院大学,华为等
  • 主讲人:Z
  • 内容:小样本持续学习

2022-02-23

Task-Customized Self-Supervised Pre-training with Scalable Dynamic Routing

  • 会议:AAAI 2022
  • 作者:华为诺亚方舟实验室
  • 主讲人:L
  • 内容:

New Insights for the Stability-Plasticity Dilemma in Online Continual Learning

  • 会议:ICLR 2023
  • 作者:首尔国立大学
  • 主讲人:H
  • 内容:
    • 组合了不同的 Normalization 方法,BN 负责稳定性部分,LN、IN(广泛地应用于迁移学习)负责可塑性部分。
    • 为重演样本提出了限制散开程度的损失。

2022-02-16

(假期进展汇报)

2022-2023 第一学期

2022-11-14

一个小样本任务微调的框架

  • 主讲人:L
  • 内容:

S3C: Self-Supervised Stochastic Classifiers for Few-Shot Class-Incremental Learning

  • 会议:ECCV 2022
  • 作者:印度科学理工学院(班加罗尔)
  • 主讲人:Z
  • 内容:

快慢网络式持续学习与任务相似性机制的结合

  • 主讲人:W

2022-11-07

Cross-Domain Cross-Set Few-Shot Learning via Learning Compact and Aligned Representations

  • 会议:ICLR 2022
  • 主讲人:L
  • 内容:

Temporal Latent Bottleneck: Synthesis of Fast and Slow Processing Mechanisms in Sequence Learning

  • 会议:NIPS 2022
  • 作者:蒙特利尔大学、微软、DeepMind、CIFAR 等
  • 主讲人:Z
  • 内容:

On the Effectiveness of Lipschitz-Driven Rehearsal in Continual Learning

  • 发表:NIPS 2022
  • 作者:意大利两所不出名大学
  • 主讲人:H

2022-10-31

Worst Case Matters for Few-Shot Recognition

  • 会议:ECCV 2022
  • 作者:南京大学,计算机软件新技术国家重点实验室
  • 主讲人:L
  • 内容:

Do Deep Networks Transfer Invariance Across Classes?

  • 会议:ICLR 2022
  • 作者:斯坦福大学、宾夕法尼亚大学,Finn 组
  • 主讲人:Z
  • 内容:

Compacting, Picking and Growing for Unforgetting Continual Learning

  • 会议:NIPS 2019
  • 作者:(台湾)中央研究院资讯科学研究所
  • 主讲人:W
  • 内容:参数隔离方法,是先训练后剪枝重新训练的 PackNet 的改进:在训练新任务时,选出旧任务参数的一部分在剪枝时也重新训练。选择哪些参数是学习了在旧任务参数上的 mask,旧任务参数是固定的,类似 Piggyback 训 mask 的方式。

2022-10-24

Curvature-Adaptive Meta-Learning for Fast Adaptation to Manifold Data

  • 会议/期刊:ICCV 2021, TPAMI 2022
  • 作者:北京理工大学计算机学院,贾云得组
  • 主讲人:L
  • 内容:

Efficiently Identifying Task Groupings for Multi-Task Learning

  • 会议:NIPS 2021
  • 作者:Google、斯坦福大学,Finn 组
  • 主讲人:W
  • 内容:多任务学习场景的任务分组方法,基于任务相似度为任务作分组,划分模型分组训练小的多任务。任务相似度计算自训练过程的损失变化。其中任务分组、任务相似性的度量可以借鉴到持续学习上。

Exemplar-free Class Incremental Learning via Discriminative and Comparable One-class Classifiers

  • 发表:ArXiv 2022
  • 作者:北京交通大学
  • 主讲人:Z
  • 内容:

2022-10-17

持续学习中区分高频/低频信息的想法

  • 主讲人:H
  • 内容:关于持续学习中区分高频/低频信息的想法

Margin-Based Few-Shot Class-Incremental Learning with Class-Level Overfitting Mitigation

  • 会议:NIPS 2022
  • 作者:华中科技大学,北京大学
  • 主讲人:Z
  • 内容:通过实验发现了持续学习在每个任务上不能学得太狠,最好学个大概即可。

(主题)

基于 mask 的持续学习

2022-10-10

Cross-Attention Multi-Scale Vision Transformer for Image Classification

  • 会议:ICCV 2021
  • 作者:MIT-IBM Watson AI Lab
  • 主讲人:Z
  • 内容:Cross-ViT

Training data-efficient image transformers & distillation through attention

  • 会议:ICML 2021
  • 作者:Facebook
  • 主讲人:Z
  • 内容:DeiT

Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning

  • 会议:ICCV 2021
  • 作者:UC San Diego,UC Berkeley 等
  • 主讲人:L
  • 内容:

Overcoming Catastrophic Forgetting with Hard Attention to the Task

  • 会议:ICML 2018
  • 作者:西班牙巴塞罗那的大学
  • 主讲人:W
  • 内容:持续学习模型 HAT,是将 mask 机制加到持续学习的第一篇论文,提出了一个很简单的、每个神经元引入一个任务 mask 的方法,并给出了训练方法,和一个解决模型容量问题的稀疏正则项,让新旧任务 mask 重合。它属于参数隔离方法,之后很多带 mask 机制的持续学习论文以此篇为基础。

梯度操控法持续学习

2022-09-19

Meta-attention for ViT-backed Continual Learning

  • 会议:CVPR 2022
  • 作者:浙江大学、阿里
  • 主讲人:Z
  • 内容:

DyTox: Transformers for Continual Learning with DYnamic TOken eXpansion

  • 会议:CVPR 2022
  • 作者:法国索邦大学
  • 主讲人:Z
  • 内容:

A Multi-head Model for Continual Learning via Out-of-distribution Replay

  • 会议:CoLLAs 2022
  • 作者:伊利诺伊大学芝加哥分校,Bing Liu 组
  • 主讲人:Z
  • 内容:

Channel Importance Matters in Few-Shot Image Classification

  • 会议:ICML 2022
  • 作者:电子科技大学,哈尔滨工业大学
  • 主讲人:L

Variational Continual Learning

  • 会议:ICLR 2018
  • 作者:剑桥大学
  • 主讲人:W
  • 内容:从贝叶斯学派角度提出了一个持续学习框架——变分持续学习(VCL),提出框架是主要的。同时提出了一个在此框架下简单的防止遗忘的机制——coreset。

Improving and Understanding Variational Continual Learning

  • 发表:ArXiv 2019
  • 作者:剑桥大学
  • 主讲人:W
  • 内容:对上一篇文章在训练技巧上做了一点改进,同时讨论了 VCL 特有的现象——剪枝效应。作者认为剪枝效应对持续学习意义是很大的

2021-2022 第二学期

2022-04-27

Modeling Label Space Interactions in Multi-label Classification using Box Embeddings

  • 会议:ICLR 2022 (Poster)
  • 作者:马萨诸塞大学阿默斯特分校
  • 主讲人:L
  • 内容:

Model Behavior Preserving for Class-Incremental Learning

  • 会议:IEEE TNNLS 2022
  • 作者:西安交通大学
  • 主讲人:H
  • 内容:

2022-04-20

数据增强论文整理

  • 主讲人:L

Continual Learning with Recursive Gradient Optimization

  • 会议:ICLR 2022 (Spotlight)
  • 作者:清华大学计算机系
  • 主讲人:W
  • 内容:本文可以看成是加正则项的持续学习方法。

Leanring a Unified Calssifier Incrementally via Rebalancing

  • 会议:CVPR 2019
  • 作者:中科大、香港中文大学等
  • 主讲人:Z
  • 内容:

2022-04-13

MAML is a Noisy Contrastive Learner in Classification

  • 会议:ICLR 2022 (Poster)
  • 作者:(台湾)国立交通大学
  • 主讲人:L
  • 内容:

The Close Relationship Between Contrastive Learning and Meta-learning

  • 会议:ICLR 2022 (Poster)
  • 作者:马里兰大学
  • 主讲人:L
  • 内容:

Representational Continuity for Unsupervised Continual Learning

  • 会议:ICLR 2022 (Oral)
  • 作者:
    • 纽约大学、韩国科学院、清华大学智能产业研究院等
  • 主讲人:W
  • 内容:这是一篇将持续学习用在无监督场景的论文,做的实验、内容还是比较综合的:里面既涉及到比较火的无监督学习模型,也把持续学习的三大类方法中比较新提出的推广到无监督场景中。目前看挺适合入门一下无监督的持续学习。无监督学习是一般是学习表示,让无监督学习持续起来,也就是题目所述的“Representational Continuity”。

2022-04-06

ConFeSS: A Framework for Single Source Cross-Domain Few-Shot Learning

  • 会议:ICLR 2022
  • 作者:高通 AI 研究院
  • 主讲人:L
  • 内容:

2022-03-16

(CoPE) Continual Prototype Evolution: Learning Online from Non-Stationary Data Streams

  • 会议:ICLR 2021
  • 作者:比利时鲁汶大学
  • 主讲人:W
  • 内容:

2021-2022 第一学期

2021-12-17

Context-aware Attentional Pooling (CAP) for Fine-grained Visual Classification

  • 会议:AAAI 2021
  • 作者:英国边山大学
  • 主讲人:L
  • 内容:

2021-12-10

BNS: Building Network Structures Dynamically for Continual Learning

  • 会议:NIPS 2021
  • 作者:北大数据科学中心、胡文鹏(北大数院信息系)、王选计算机研究所、Bing Liu
  • 主讲人:Z
  • 内容:将强化学习用于持续学习中,在每个task中训练一个agent用来决策网络结构和初始化,使其训练后能在验证集上达到最优效果,reward包含当前task和之前task,达到防止遗忘和知识迁移两个目的。训练代价大,每个task之间agent似乎没有联系,没有真正将持续学习和强化学习联系起来。

Is Class-Incremental Enough for Continual Learning?

  • 会议:Frontiers in AI 2022
  • 作者:Andrea Cossu*, Gabriele Graffieti, Lorenzo Pellegrini, Davide Maltoni, Davide Bacciu, Antonio Carta, Vincenzo Lomonaco
  • 主讲人:W
  • 内容:

Does Continual Learning = Catastrophic Forgetting?

  • 发表:ArXiv 2021
  • 作者:Anh Thai, Stefan Stojanov, Zixuan Huang, Isaac Rehg, James M. Rehg
  • 主讲人:W
  • 内容:

2021-12-03

Memory Efficient Class-Incremental Learning for Image Classification

  • 会议:IEEE TNNLS 2021
  • 作者:浙江大学计算机学院
  • 主讲人:W
  • 内容:

2021-11-26

IIRC: Incremental Implicitly-Refined Classification

  • 会议:CVPR 2021
  • 作者:蒙特利尔大学等
  • 主讲人:Z
  • 内容:提出了持续学习中出现不同粒度的类别,且相互关系未知。用多标签分类的指标作为评价标准,在几个经典算法上观察了实验效果,说明了粗细粒度的关系会影响分类效果。

HCV: Hierarchy-Consistency Verification for Incremental Implicitly-Refined Classification

  • 会议:BMVC 2021
  • 作者:西班牙巴塞罗那的大学,南开大学
  • 主讲人:Z
  • 内容:针对IIRC问题提出了判断类别关系的方法,根据前面类别的打分确定是否为之前某一类的子类。超类和子类同时输出高分。测试时根据训练得到的层级关系调整矛盾的预测结果。

2021-11-19

Overcoming Catastrophic Forgetting in Incremental Few-Shot Learning by Finding Flat Minima

  • 会议:NIPS 2021
  • 作者:香港科技大学
  • 主讲人:H
  • 内容:

Intriguing Properties of Contrastive Losses

  • 会议:NIPS 2021
  • 作者:Google
  • 主讲人:L
  • 内容:

2021-11-12

Efficiently Identifying Task Groupings for Multi-Task Learning

  • 会议:NIPS 2021
  • 作者:Google、斯坦福大学,Finn 组
  • 主讲人:Z
  • 内容:
    • 目的:设计高效的多任务分组方法。
    • 方法:提出 inter-task affinity,用a任务的梯度方向观察b任务的损失函数变化情况,以此刻画任务间的相关程度。
    • 主要结论:此算法和SOTA相比在测试准确率不降低的情况下大幅减少了计算时间。

Meta-learning with an Adaptive Task Scheduler

  • 会议:NIPS 2021
  • 作者:斯坦福大学,中科大,腾讯 AI Lab 等,Finn 组
  • 主讲人:H
  • 内容:

2022-11-04

Can multi-label classification networks know what they don’t know?

  • 会议:NIPS 2021
  • 作者:CMU 等
  • 主讲人:L
  • 内容:启发于基于能量的OOD判别方法,本文针对多标签分类问题基于能量模型提出一种OOD鉴别指标。

2022-10-29

Few-shot Open-set Recognition by Transformation Consistency

  • 会议:CVPR 2021
  • 作者:韩国 KAIST
  • 主讲人:L
  • 内容:提出一种不需要训练集中包含未知样本的小样本开放集识别的方法。这种方法基于一类通过对类别原型进行变换的小样本识别方法,利用这种变换的一致性,通过取代原型的方法比较取代前后的距离来判断是否是unseen样本。

A continual learning survey: Defying forgetting in classification tasks

  • 会议:IEEE TPAMI 2021
  • 作者:比利时鲁汶大学,西班牙巴塞罗那的大学,华为诺亚方舟实验室等
  • 主讲人:W
  • 内容:

2021-10-22

Co2L:Contrastive Continual Learning

  • 会议:ICCV 2021
  • 作者:韩国 KAIST
  • 主讲人:Z
  • 内容:
    • 目的:将对比学习用于持续学习中。
    • 方法:1.将每个task的交叉熵损失换成监督型对比损失,并提出非对称损失,防止进一步分离之前见过的类(否则会出现存储样本与整体分布的偏差)。2.用instancewise relation distillation防止遗忘。
    • 主要结论:对比损失能提取更适合在任务间迁移的特征。

Exploring Architectural Ingredients of Adversarially Robust Deep Neural Networks

  • 会议:NIPS 2021
  • 作者:墨尔本大学,北大人工智能学院等
  • 主讲人:H
  • 内容:在 WRN32-10 的下框架,探究怎样的结构有助于提高神经网络的对抗鲁棒性,发现当越靠近输出层宽度越小时,网络的对抗鲁棒性越强,当越远离输出层的网络参数越大时,对抗鲁棒性越强。

2022-10-08

Few-Shot Learning with Part Discovery and Augmentation from Unlabeled Images

  • 会议:IJCAI 2021
  • 作者:中科大,中科院计算所
  • 主讲人:L
  • 内容:本文解决的小样本问题场景为:大量的无标签数据可作为特征提取器的预训练数据集。核心思想就是图像中关键Part的获取。在预训练部分,选择每张图像中信息量最大的Part,利用这一Part参与对比学习从而得到下游任务需要的特征提取器。在下游任务中,先用小样本数据训练一个分类器,再用该分类器对无标签数据进行预分类,选择分类概率较高的样本作为增强数据。增强的方法即通过一个样本的attention block,意在放大与类别相关的特征。最后再用增强的数据及原小样本数据重新训练分类器。

Data Augmentation for Meta-Learning

  • 会议:ICML 2021
  • 作者:马里兰大学
  • 主讲人:H
  • 内容:本文探索了在元学习的不同阶段做数据增广,观察在每个阶段做数据增广的不同表现,得到数据增广在元学习不同阶段所能起到的不同作用

2022-09-17

Continual Learning in the Teacher-Student Setup: Impact of Task Similarity

  • 会议:ICML 2021
  • 作者:帝国理工大学,牛津大学等
  • 主讲人:Z
  • 内容:
    • 目的:实验观察持续学习中前后任务的相似性对结果的影响。仅涉及两层神经网络两个任务的情况。
    • 方法:teacher-student setup,ODE数值模拟。
    • 主要结论:intermediate task similarity leads to greatest forgetting

持续且无遗忘的深度学习方法研究

  • 会议:博士学位论文
  • 作者:胡文鹏(北大数院信息系)
  • 主讲人:W
  • 内容:
    • 目的:通过持续学习克服灾难性遗忘问题,从表面原因(训练样本分布不均衡)与根本原因(特征偏置)下手
    • 本次主要汇报第3部分:
      • 1.参数生成与模型自适应方法(PGMA):一种持续学习算法,针对表面原因
      • 2.全面学习(HL):解决单类别分类,用全面正则项(H-reg)实现,解决根本原因
      • 3.全面持续学习框架:一种持续学习算法,结合H-reg,引入参数迁移、后处理机制,解决根本原因
本文由作者按照 CC BY 4.0 进行授权,转载请注明

编配:《喀秋莎》手风琴独奏

论文笔记:Queried Unlabeled Data Improves and Robustifies Class-Incremental Learning