survey

Self-explaining DNN

key words: Self-explaining models

Post-hoc interpretability

研究问题描述

深度学习模型的事后(post-hoc)可解释方法:给定一个已训练的深度神经网络模型,如何对其输出进行解释。

监视时间序列(特别是针对运维的监控时间序列数据)

总结几个点:

  1. 数据集名称与链接
  2. 数据集背景:数据集的描述对象是什么
  3. 数据集任务:该数据集采集的时候的原始任务是什么
  4. 数据集格式(可选的)

超大规模数据集(TB级别以上)调研

本调研总结了TB级别以上数据集的简单说明与地址,不限数据类型。其中包含了一些压缩后不足1TB的数据集,他们的原始文件大小均为1TB以上。

调研:美国COVID19感染/死亡、历史流感感染/死亡

2020/06/11 12:00:00 survey dataset covid19

以下数据均来源于美国疾病控制与预防中心(CDC)。

Time series similarity learning

调研

  • NIPS19 - Learning Representations for Time Series Clustering

流程

  1. 本质上是在隐空间内学习一个利于分簇的表征,然后利用该表征结合传统的聚类方法,做聚类任务
    1. 使用auto-encoder的结构,求得时间序列在隐空间中的表达
    2. 为了使得encoder出的结果更适合于执行聚类任务,使用k-means建模了隐空间中的数据(本质上是无监督的优化类间距离与类内距离),这个过程中使用了可微分的k-means loss
    3. 为了使得encoder更具有表征能力,添加了一项任务,即分类任务,使用一个子网络来分类encoder编码的真实数据与假数据。
  2. 使用UCR聚类任务评估效果

我认为的缺点

  1. K-means的隐空间建模能力远弱与GMM

激活函数

(有待整理)

哦哦哦,也就是可以用激活函数实现一些数学操作的意思,把特定范围的值(小于零得值)映射到另一个特定的值(0)。【我倒有看到一个用relu把特定的值变为0的,比如gcn自动学习临接矩阵的时候,把小的项变为0】

Deep leanring or machine learning on time series with mixed sampling rate

  • Autoregressive Convolutional Neural Networks for Asynchronous Time Series: ICML 2019

    异:

    1. 处理的是多维时间序列数据
    2. 针对非同步数据,并未和我们一样,训练一个能够用于多种采样率的模型,而是将[多维时间序列,序列指示剂,采样间隔]合并成为多维时间序列,然后输入到网络中
    3. 使用类似自回归模型的算法,对时间序列模型进行预测
    4. 使用cnn进行序列学习

    同:

    1. 没什么相同的

Deep leanring or machine learning on time series with missing value

近年来一些顶会文章或者是比较重要的文章,并列出与我的工作的异同点(NIPS20的投稿)