time series
Transformer Family on Time series
当代的时间序列分析任务需要应对各种复杂的数据模式和动态性,传统的统计模型和机器学习方法在处理这些挑战时常常受限。然而,近年来,类Transformer网络在时间序列分析领域取得了显著的突破。Transformer模型的出现为时间序列分析任务提供了一种新的、强大的工具,它能够自适应地捕捉序列中的长期依赖关系,并能够有效地建模非线性和非平稳性特征。
TODO: 完成重点论文和异常检测论文的精读
总结几个点:
- 数据集名称与链接
- 数据集背景:数据集的描述对象是什么
- 数据集任务:该数据集采集的时候的原始任务是什么
- 数据集格式(可选的)
Time series similarity learning
调研
- NIPS19 - Learning Representations for Time Series Clustering
流程
- 本质上是在隐空间内学习一个利于分簇的表征,然后利用该表征结合传统的聚类方法,做聚类任务
- 使用auto-encoder的结构,求得时间序列在隐空间中的表达
- 为了使得encoder出的结果更适合于执行聚类任务,使用k-means建模了隐空间中的数据(本质上是无监督的优化类间距离与类内距离),这个过程中使用了可微分的k-means loss
- 为了使得encoder更具有表征能力,添加了一项任务,即分类任务,使用一个子网络来分类encoder编码的真实数据与假数据。
- 使用UCR聚类任务评估效果
我认为的缺点
- K-means的隐空间建模能力远弱与GMM
Deep leanring or machine learning on time series with mixed sampling rate
Autoregressive Convolutional Neural Networks for Asynchronous Time Series: ICML 2019
异:
- 处理的是多维时间序列数据
- 针对非同步数据,并未和我们一样,训练一个能够用于多种采样率的模型,而是将[多维时间序列,序列指示剂,采样间隔]合并成为多维时间序列,然后输入到网络中
- 使用类似自回归模型的算法,对时间序列模型进行预测
- 使用cnn进行序列学习
同:
- 没什么相同的
Deep leanring or machine learning on time series with missing value
近年来一些顶会文章或者是比较重要的文章,并列出与我的工作的异同点(NIPS20的投稿)