time series

Transformer Family on Time series

当代的时间序列分析任务需要应对各种复杂的数据模式和动态性,传统的统计模型和机器学习方法在处理这些挑战时常常受限。然而,近年来,类Transformer网络在时间序列分析领域取得了显著的突破。Transformer模型的出现为时间序列分析任务提供了一种新的、强大的工具,它能够自适应地捕捉序列中的长期依赖关系,并能够有效地建模非线性和非平稳性特征。

TODO: 完成重点论文和异常检测论文的精读

Quasi-periodic time series

研究问题描述

  • 准周期时间序列的异常检测问题

    该问题可以拆解为两部分:准周期时间序列建模、异常检测。本调研主要针对准周期时间序列建模进行调研

  • 数学描述

    给定一个准周期时间序列的一组周期样本${\bf{x}}_1, …, {\bf{x}}_N$,其中${\bf{x}}_i$为一个周期内的时间序列片段,如何对$\bf{x}_i$进行建模,
    即如何从${\bf{x}}_i$中提取出表征向量${\bf{v}}_i$用于后续的任务(如:异常检测、分类、预测,等)

监视时间序列(特别是针对运维的监控时间序列数据)

总结几个点:

  1. 数据集名称与链接
  2. 数据集背景:数据集的描述对象是什么
  3. 数据集任务:该数据集采集的时候的原始任务是什么
  4. 数据集格式(可选的)

Time series similarity learning

调研

  • NIPS19 - Learning Representations for Time Series Clustering

流程

  1. 本质上是在隐空间内学习一个利于分簇的表征,然后利用该表征结合传统的聚类方法,做聚类任务
    1. 使用auto-encoder的结构,求得时间序列在隐空间中的表达
    2. 为了使得encoder出的结果更适合于执行聚类任务,使用k-means建模了隐空间中的数据(本质上是无监督的优化类间距离与类内距离),这个过程中使用了可微分的k-means loss
    3. 为了使得encoder更具有表征能力,添加了一项任务,即分类任务,使用一个子网络来分类encoder编码的真实数据与假数据。
  2. 使用UCR聚类任务评估效果

我认为的缺点

  1. K-means的隐空间建模能力远弱与GMM

Deep leanring or machine learning on time series with mixed sampling rate

  • Autoregressive Convolutional Neural Networks for Asynchronous Time Series: ICML 2019

    异:

    1. 处理的是多维时间序列数据
    2. 针对非同步数据,并未和我们一样,训练一个能够用于多种采样率的模型,而是将[多维时间序列,序列指示剂,采样间隔]合并成为多维时间序列,然后输入到网络中
    3. 使用类似自回归模型的算法,对时间序列模型进行预测
    4. 使用cnn进行序列学习

    同:

    1. 没什么相同的

Deep leanring or machine learning on time series with missing value

近年来一些顶会文章或者是比较重要的文章,并列出与我的工作的异同点(NIPS20的投稿)