論文の概要: TCGAN: Convolutional Generative Adversarial Network for Time Series
Classification and Clustering
- arxiv url: http://arxiv.org/abs/2309.04732v1
- Date: Sat, 9 Sep 2023 09:33:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 16:49:10.216603
- Title: TCGAN: Convolutional Generative Adversarial Network for Time Series
Classification and Clustering
- Title(参考訳): TCGAN: 時系列分類とクラスタリングのための畳み込み生成逆ネットワーク
- Authors: Fanling Huang and Yangdong Deng
- Abstract要約: 時系列畳み込みGAN(TCGAN)は、2つの1次元CNN間で逆ゲームを行うことで学習する。
その結果, TCGAN は既存の時系列 GAN よりも高速で精度が高いことがわかった。
- 参考スコア(独自算出の注目度): 3.2474405288441544
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent works have demonstrated the superiority of supervised Convolutional
Neural Networks (CNNs) in learning hierarchical representations from time
series data for successful classification. These methods require sufficiently
large labeled data for stable learning, however acquiring high-quality labeled
time series data can be costly and potentially infeasible. Generative
Adversarial Networks (GANs) have achieved great success in enhancing
unsupervised and semi-supervised learning. Nonetheless, to our best knowledge,
it remains unclear how effectively GANs can serve as a general-purpose solution
to learn representations for time series recognition, i.e., classification and
clustering. The above considerations inspire us to introduce a Time-series
Convolutional GAN (TCGAN). TCGAN learns by playing an adversarial game between
two one-dimensional CNNs (i.e., a generator and a discriminator) in the absence
of label information. Parts of the trained TCGAN are then reused to construct a
representation encoder to empower linear recognition methods. We conducted
comprehensive experiments on synthetic and real-world datasets. The results
demonstrate that TCGAN is faster and more accurate than existing time-series
GANs. The learned representations enable simple classification and clustering
methods to achieve superior and stable performance. Furthermore, TCGAN retains
high efficacy in scenarios with few-labeled and imbalanced-labeled data. Our
work provides a promising path to effectively utilize abundant unlabeled time
series data.
- Abstract(参考訳): 近年,教師付き畳み込みニューラルネットワーク(cnns)が時系列データから階層表現を学習し,分類を成功させた。
これらの方法は、安定した学習のために十分な大きなラベル付きデータを必要とするが、高品質なラベル付き時系列データを取得することはコストがかかり、潜在的に不可能である。
GAN(Generative Adversarial Networks)は、教師なしおよび半教師なし学習の強化に成功している。
しかしながら、我々の知る限りでは、GANが時系列認識、すなわち分類とクラスタリングのための表現を学習するための汎用的なソリューションとして効果的に機能するかどうかは不明である。
上記の考察は、TCGAN(Time-Series Convolutional GAN)を導入するきっかけとなった。
TCGANは、ラベル情報がない状態で、2つの1次元CNN(すなわち、ジェネレータと識別器)間で対角ゲームを行うことで学習する。
その後、訓練されたTCGANの一部が再利用され、線形認識方法を強化する表現エンコーダが構築される。
合成および実世界のデータセットに関する総合的な実験を行った。
その結果, TCGAN は既存の時系列 GAN よりも高速で精度が高いことがわかった。
学習した表現により、単純な分類法とクラスタリング法により、優れた安定した性能が得られる。
さらに、TCGANは、少ないラベルと不均衡のデータを持つシナリオにおいて高い有効性を保っている。
我々の研究は、豊富なラベルのない時系列データを効果的に活用するための有望な道を提供する。
関連論文リスト
- Time Series Representation Learning with Supervised Contrastive Temporal Transformer [8.223940676615857]
textbf Supervised textbfCOntrastive textbfTemporal textbfTransformer (SCOTT)
まず,変化不変表現の学習を支援するために,様々な時系列データに対する適切な拡張手法について検討する。
論文 参考訳(メタデータ) (2024-03-16T03:37:19Z) - Multi-class Temporal Logic Neural Networks [8.20828081284034]
時系列データは、ドローンや自動運転車のような自律システムの振る舞いを表すことができる。
本稿では,時系列データのマルチクラス分類のためのSTL仕様を表すニューラルネットワークを組み合わせる手法を提案する。
提案手法を2つのデータセット上で評価し,最先端のベースラインと比較する。
論文 参考訳(メタデータ) (2024-02-17T00:22:29Z) - Investigating Power laws in Deep Representation Learning [4.996066540156903]
本研究では,非ラベルデータセットにおける表現の質を評価するためのフレームワークを提案する。
表現学習に影響を与える3つの重要な属性に対して、電力法則の係数$alpha$を推定する。
特に$alpha$はラベルの知識のない表現から計算可能であり、非ラベル付きデータセットにおける表現の質を評価するためのフレームワークを提供する。
論文 参考訳(メタデータ) (2022-02-11T18:11:32Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Class Balancing GAN with a Classifier in the Loop [58.29090045399214]
本稿では,GANを学習するための理論的動機付けクラスバランス正則化器を提案する。
我々の正規化器は、訓練済みの分類器からの知識を利用して、データセット内のすべてのクラスのバランスの取れた学習を確実にします。
複数のデータセットにまたがる既存手法よりも優れた性能を達成し,長期分布の学習表現における正規化器の有用性を実証する。
論文 参考訳(メタデータ) (2021-06-17T11:41:30Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。