論文の概要: Generative Modeling of Networked Time-Series via Transformer Architectures
- arxiv url: http://arxiv.org/abs/2506.07312v1
- Date: Sun, 08 Jun 2025 23:05:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:47.103457
- Title: Generative Modeling of Networked Time-Series via Transformer Architectures
- Title(参考訳): 変圧器アーキテクチャによるネットワーク時間系列の生成モデリング
- Authors: Yusuf Elnady,
- Abstract要約: 多くのセキュリティおよびネットワークアプリケーションは、機械学習モデルをトレーニングするために大きなデータセットを必要とする。
最近の研究では、トランスフォーマーモデルが新しいサンプルを合成することによってデータのサイズを拡大する可能性を示しているが、合成されたサンプルは実際のデータよりもモデルを改善することはできない。
本稿では,既存のMLの性能向上に有効な時系列データを生成するための生成フレームワークとして,効率的なトランスフォーマーベースモデルを設計する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many security and network applications require having large datasets to train the machine learning models. Limited data access is a well-known problem in the security domain. Recent studies have shown the potential of Transformer models to enlarge the size of data by synthesizing new samples, but the synthesized samples don't improve the models over the real data. To address this issue, we design an efficient transformer-based model as a generative framework to generate time-series data, that can be used to boost the performance of existing and new ML workflows. Our new transformer model achieves the SOTA results. We style our model to be generalizable and work across different datasets, and produce high-quality samples.
- Abstract(参考訳): 多くのセキュリティおよびネットワークアプリケーションは、機械学習モデルをトレーニングするために大きなデータセットを必要とする。
限られたデータアクセスは、セキュリティ領域でよく知られた問題である。
最近の研究では、トランスフォーマーモデルが新しいサンプルを合成することによってデータのサイズを拡大する可能性を示しているが、合成されたサンプルは実際のデータよりもモデルを改善することはできない。
この問題に対処するため,我々は,既存のMLワークフローや新しいワークフローの性能向上に使用できる時系列データを生成するための,効率的なトランスフォーマーベースモデルを生成フレームワークとして設計する。
我々の新しいトランスモデルはSOTA結果を達成する。
モデルを一般化し、さまざまなデータセットにまたがって動作し、高品質なサンプルを生成するようにしています。
関連論文リスト
- sTransformer: A Modular Approach for Extracting Inter-Sequential and Temporal Information for Time-Series Forecasting [6.434378359932152]
既存のTransformerベースのモデルを,(1)モデル構造の変更,(2)入力データの変更の2つのタイプに分類する。
我々は、シーケンシャル情報と時間情報の両方をフルにキャプチャするSequence and Temporal Convolutional Network(STCN)を導入する$textbfsTransformer$を提案する。
我々は,線形モデルと既存予測モデルとを長期時系列予測で比較し,新たな成果を得た。
論文 参考訳(メタデータ) (2024-08-19T06:23:41Z) - UniTS: A Unified Multi-Task Time Series Model [31.675845788410246]
UniTSは、予測タスクと生成タスクを単一のフレームワークに統合した、統合されたマルチタスク時系列モデルである。
UniTSは、人間の活動センサー、ヘルスケア、エンジニアリング、ファイナンスにまたがる38のデータセットでテストされている。
論文 参考訳(メタデータ) (2024-02-29T21:25:58Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - TSGM: A Flexible Framework for Generative Modeling of Synthetic Time Series [61.436361263605114]
時系列データは、研究者と産業組織間のデータの共有を妨げるため、しばしば不足または非常に敏感である。
本稿では,合成時系列の生成モデリングのためのオープンソースフレームワークである時系列生成モデリング(TSGM)を紹介する。
論文 参考訳(メタデータ) (2023-05-19T10:11:21Z) - TTS-CGAN: A Transformer Time-Series Conditional GAN for Biosignal Data
Augmentation [5.607676459156789]
我々は,既存のマルチクラスデータセットに基づいて学習し,クラス固有の合成時系列列を生成する条件付きGANモデルであるTS-CGANを提案する。
我々のモデルによって生成された合成シーケンスは、実データとは区別できないため、同じタイプの実信号の補完や置換に使うことができる。
論文 参考訳(メタデータ) (2022-06-28T01:01:34Z) - Visformer: The Vision-friendly Transformer [105.52122194322592]
我々は視覚に優しいトランスフォーマーから短縮したvisformerという新しいアーキテクチャを提案する。
同じ計算の複雑さにより、VisformerはTransformerベースのモデルとConvolutionベースのモデルの両方をImageNet分類精度で上回る。
論文 参考訳(メタデータ) (2021-04-26T13:13:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。