論文の概要: TTS-CGAN: A Transformer Time-Series Conditional GAN for Biosignal Data
Augmentation
- arxiv url: http://arxiv.org/abs/2206.13676v1
- Date: Tue, 28 Jun 2022 01:01:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 13:57:31.668123
- Title: TTS-CGAN: A Transformer Time-Series Conditional GAN for Biosignal Data
Augmentation
- Title(参考訳): TTS-CGAN:生体信号データ拡張のための変圧器時系列条件付きGAN
- Authors: Xiaomin Li, Anne Hee Hiong Ngu, Vangelis Metsis
- Abstract要約: 我々は,既存のマルチクラスデータセットに基づいて学習し,クラス固有の合成時系列列を生成する条件付きGANモデルであるTS-CGANを提案する。
我々のモデルによって生成された合成シーケンスは、実データとは区別できないため、同じタイプの実信号の補完や置換に使うことができる。
- 参考スコア(独自算出の注目度): 5.607676459156789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Signal measurement appearing in the form of time series is one of the most
common types of data used in medical machine learning applications. Such
datasets are often small in size, expensive to collect and annotate, and might
involve privacy issues, which hinders our ability to train large,
state-of-the-art deep learning models for biomedical applications. For
time-series data, the suite of data augmentation strategies we can use to
expand the size of the dataset is limited by the need to maintain the basic
properties of the signal. Generative Adversarial Networks (GANs) can be
utilized as another data augmentation tool. In this paper, we present TTS-CGAN,
a transformer-based conditional GAN model that can be trained on existing
multi-class datasets and generate class-specific synthetic time-series
sequences of arbitrary length. We elaborate on the model architecture and
design strategies. Synthetic sequences generated by our model are
indistinguishable from real ones, and can be used to complement or replace real
signals of the same type, thus achieving the goal of data augmentation. To
evaluate the quality of the generated data, we modify the wavelet coherence
metric to be able to compare the similarity between two sets of signals, and
also conduct a case study where a mix of synthetic and real data are used to
train a deep learning model for sequence classification. Together with other
visualization techniques and qualitative evaluation approaches, we demonstrate
that TTS-CGAN generated synthetic data are similar to real data, and that our
model performs better than the other state-of-the-art GAN models built for
time-series data generation.
- Abstract(参考訳): 時系列の形で現れる信号測定は、医学的機械学習アプリケーションで使われる最も一般的なデータの1つである。
このようなデータセットはサイズが小さく、収集や注釈に費用がかかることが多く、プライバシーの問題も伴うため、バイオメディカルアプリケーションのための、最先端の大規模ディープラーニングモデルをトレーニングする能力を阻害する可能性がある。
時系列データの場合、データセットのサイズを拡大するために使用できる一連のデータ拡張戦略は、信号の基本特性を維持する必要性によって制限される。
generative adversarial networks (gans) は別のデータ拡張ツールとして利用できる。
本稿では,既存のマルチクラスデータセットに基づいて学習し,任意の長さのクラス固有の合成時系列列を生成するトランスフォーマーベース条件付きGANモデルであるTS-CGANを提案する。
モデルアーキテクチャと設計戦略について詳しく説明します。
我々のモデルで生成された合成シーケンスは実データとは区別できないため、同じタイプの実信号の補完や置換に利用することができ、データ拡張の目標を達成することができる。
生成したデータの品質を評価するために、ウェーブレットコヒーレンス・メトリックを変更して、2組の信号の類似性を比較するとともに、合成データと実データを組み合わせてシーケンス分類のためのディープラーニングモデルを訓練するケーススタディを行う。
他の可視化技術や質的評価手法とともに,tts-cgan生成合成データが実データと類似していること,時系列データ生成用に構築された他の最先端ganモデルよりも優れた性能を示す。
関連論文リスト
- Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - Generating Realistic Tabular Data with Large Language Models [49.03536886067729]
大規模言語モデル(LLM)は多様なタスクに使われてきたが、特徴と対象変数の正確な相関は捉えていない。
そこで本研究では,LLMに基づく3つの重要な改良を加えて,実データの特徴クラス相関を正しく把握する手法を提案する。
実験の結果,本手法は下流タスクにおいて,20個のデータセット上で10個のSOTAベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-10-29T04:14:32Z) - Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - MADS: Modulated Auto-Decoding SIREN for time series imputation [9.673093148930874]
我々は,暗黙のニューラル表現に基づく時系列計算のための新しい自動デコードフレームワークMADSを提案する。
実世界の2つのデータセット上で本モデルを評価し,時系列計算における最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-03T09:08:47Z) - TSGM: A Flexible Framework for Generative Modeling of Synthetic Time Series [61.436361263605114]
時系列データは、研究者と産業組織間のデータの共有を妨げるため、しばしば不足または非常に敏感である。
本稿では,合成時系列の生成モデリングのためのオープンソースフレームワークである時系列生成モデリング(TSGM)を紹介する。
論文 参考訳(メタデータ) (2023-05-19T10:11:21Z) - Time-series Transformer Generative Adversarial Networks [5.254093731341154]
本稿では,時系列データに特化して生じる制約について考察し,合成時系列を生成するモデルを提案する。
合成時系列データを生成するモデルには,(1)実列の段階的条件分布を捉えること,(2)実列全体の結合分布を忠実にモデル化すること,の2つの目的がある。
TsT-GANは、Transformerアーキテクチャを活用してデシラタを満足させ、その性能を5つのデータセット上の5つの最先端モデルと比較するフレームワークである。
論文 参考訳(メタデータ) (2022-05-23T10:04:21Z) - DATGAN: Integrating expert knowledge into deep learning for synthetic
tabular data [0.0]
合成データは、バイアスデータセットの修正や、シミュレーション目的の不足したオリジナルデータの置換など、さまざまなアプリケーションで使用することができる。
ディープラーニングモデルはデータ駆動であり、生成プロセスを制御するのは難しい。
本稿では、これらの制限に対処するため、DATGAN(Directed Acyclic Tabular GAN)を提案する。
論文 参考訳(メタデータ) (2022-03-07T16:09:03Z) - TTS-GAN: A Transformer-based Time-Series Generative Adversarial Network [4.989480853499916]
時系列データは、医療機械学習アプリケーションで使用される最も一般的なタイプのデータの1つである。
本稿では,現実的な合成時系列データ列を生成可能な変換器ベースのGANであるTS-GANを紹介する。
実時間と生成した時系列データの類似性を実証するために,可視化と次元削減技術を用いている。
論文 参考訳(メタデータ) (2022-02-06T03:05:47Z) - Towards Similarity-Aware Time-Series Classification [51.2400839966489]
時系列データマイニングの基本課題である時系列分類(TSC)について検討する。
グラフニューラルネットワーク(GNN)を用いて類似情報をモデル化するフレームワークであるSimTSCを提案する。
論文 参考訳(メタデータ) (2022-01-05T02:14:57Z) - Towards Synthetic Multivariate Time Series Generation for Flare
Forecasting [5.098461305284216]
データ駆動・レアイベント予測アルゴリズムのトレーニングにおける制限要因の1つは、関心のあるイベントの不足である。
本研究では,データインフォームド・オーバーサンプリングを行う手段として,条件付き生成逆数ネットワーク(CGAN)の有用性を検討する。
論文 参考訳(メタデータ) (2021-05-16T22:23:23Z) - Learning summary features of time series for likelihood free inference [93.08098361687722]
時系列データから要約機能を自動的に学習するためのデータ駆動型戦略を提案する。
以上の結果から,データから要約的特徴を学習することで,手作りの値に基づいてLFI手法よりも優れる可能性が示唆された。
論文 参考訳(メタデータ) (2020-12-04T19:21:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。