paper list

Post-hoc interpretability

研究问题描述

深度学习模型的事后(post-hoc)可解释方法:给定一个已训练的深度神经网络模型,如何对其输出进行解释。

Related Papers in SIGKDD 2020 (2020.08.23)

2020/08/23 00:00:00 paper list

Accepted paper list: Link

Related Papers in SIRIR 2020 (2020.07.25)

2020/07/25 00:00:00 paper list

大多文章都是关于NLP与推荐系统的。相关的不多。

Accepted paper list: Link

Time series similarity learning

调研

  • NIPS19 - Learning Representations for Time Series Clustering

流程

  1. 本质上是在隐空间内学习一个利于分簇的表征,然后利用该表征结合传统的聚类方法,做聚类任务
    1. 使用auto-encoder的结构,求得时间序列在隐空间中的表达
    2. 为了使得encoder出的结果更适合于执行聚类任务,使用k-means建模了隐空间中的数据(本质上是无监督的优化类间距离与类内距离),这个过程中使用了可微分的k-means loss
    3. 为了使得encoder更具有表征能力,添加了一项任务,即分类任务,使用一个子网络来分类encoder编码的真实数据与假数据。
  2. 使用UCR聚类任务评估效果

我认为的缺点

  1. K-means的隐空间建模能力远弱与GMM