論文の概要: Transformers with Attentive Federated Aggregation for Time Series Stock
Forecasting
- arxiv url: http://arxiv.org/abs/2402.06638v1
- Date: Mon, 22 Jan 2024 07:33:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-18 14:09:52.662720
- Title: Transformers with Attentive Federated Aggregation for Time Series Stock
Forecasting
- Title(参考訳): 時系列予測のための注意的フェデレーションを持つ変圧器
- Authors: Chu Myaet Thwal, Ye Lin Tun, Kitae Kim, Seong-Bae Park, Choong Seon
Hong
- Abstract要約: 時系列モデリングは多くの時系列アプリケーションでトランスフォーマーが広く使われるようになった。
時系列予測への変換器の適応は、有望かつ矛盾した結果とともに制限され続けている。
本稿では,企業へのプライバシ保護を図りつつ,パフォーマンスを向上した時系列ストック予測のための注意深いフェデレーショントランスフォーマーを提案する。
- 参考スコア(独自算出の注目度): 15.968396756506236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent innovations in transformers have shown their superior performance in
natural language processing (NLP) and computer vision (CV). The ability to
capture long-range dependencies and interactions in sequential data has also
triggered a great interest in time series modeling, leading to the widespread
use of transformers in many time series applications. However, being the most
common and crucial application, the adaptation of transformers to time series
forecasting has remained limited, with both promising and inconsistent results.
In contrast to the challenges in NLP and CV, time series problems not only add
the complexity of order or temporal dependence among input sequences but also
consider trend, level, and seasonality information that much of this data is
valuable for decision making. The conventional training scheme has shown
deficiencies regarding model overfitting, data scarcity, and privacy issues
when working with transformers for a forecasting task. In this work, we propose
attentive federated transformers for time series stock forecasting with better
performance while preserving the privacy of participating enterprises.
Empirical results on various stock data from the Yahoo! Finance website
indicate the superiority of our proposed scheme in dealing with the above
challenges and data heterogeneity in federated learning.
- Abstract(参考訳): 近年のトランスの革新は、自然言語処理(NLP)とコンピュータビジョン(CV)において優れた性能を示している。
時系列データにおける長距離依存関係と相互作用をキャプチャする能力もまた時系列モデリングに大きな関心を惹き付け、多くの時系列アプリケーションでトランスフォーマーが広く使われるようになった。
しかしながら、最も一般的かつ重要な応用であるトランスフォーマーの時系列予測への適応は、有望かつ矛盾した結果とともに制限され続けている。
NLPやCVの課題とは対照的に、時系列問題は入力シーケンス間の順序や時間的依存の複雑さを増すだけでなく、このデータの多くが意思決定に有用である傾向、レベル、季節的な情報も考慮している。
従来のトレーニング手法では,予測タスクにおいてトランスフォーマーを利用する場合,モデルオーバーフィットやデータ不足,プライバシの問題などが指摘されている。
本研究では,企業へのプライバシを保ちつつ,より優れたパフォーマンスで時系列株価予測を行うための注意深いフェデレーショントランスフォーマーを提案する。
Yahoo!ファイナンスウェブサイトのさまざまなストックデータに関する実証結果は、上記の課題とフェデレート学習におけるデータの均一性に対処する上で、提案手法の優位性を示している。
関連論文リスト
- Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - U-shaped Transformer: Retain High Frequency Context in Time Series
Analysis [0.5710971447109949]
本稿では,変圧器の低域特性を考察し,その利点を取り入れようと試みる。
パッチマージと分割操作を導入し、異なるスケールの機能を抽出し、より大きなデータセットを使用してトランスフォーマーバックボーンを完全に活用する。
実験により、比較的低コストで複数のデータセットをまたいだ高度なレベルでモデルが動作できることが実証された。
論文 参考訳(メタデータ) (2023-07-18T07:15:26Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Robust representations of oil wells' intervals via sparse attention
mechanism [2.604557228169423]
正規化変換器(Reguformers)と呼ばれる効率的な変換器のクラスを導入する。
私たちの実験の焦点は、石油とガスのデータ、すなわちウェルログにあります。
このような問題に対する我々のモデルを評価するために、20以上の井戸からなるウェルログからなる産業規模のオープンデータセットで作業する。
論文 参考訳(メタデータ) (2022-12-29T09:56:33Z) - W-Transformers : A Wavelet-based Transformer Framework for Univariate
Time Series Forecasting [7.075125892721573]
我々はウェーブレットベースのトランスフォーマーエンコーダアーキテクチャを用いて,非定常時系列のトランスフォーマーモデルを構築した。
各種ドメインから公開されているベンチマーク時系列データセットについて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2022-09-08T17:39:38Z) - CLMFormer: Mitigating Data Redundancy to Revitalize Transformer-based
Long-Term Time Series Forecasting System [46.39662315849883]
時系列予測(LTSF)は,様々な応用において重要な役割を担っている。
既存のTransformerベースのモデルであるFedformerやInformerは、いくつかのエポックの後、検証セット上で最高のパフォーマンスを達成することが多い。
本稿では,カリキュラム学習とメモリ駆動デコーダの導入により,この問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-07-16T04:05:15Z) - Non-stationary Transformers: Exploring the Stationarity in Time Series
Forecasting [86.33543833145457]
本稿では,2つの相互依存モジュールを持つ汎用フレームワークとして,非定常変圧器を提案する。
我々のフレームワークは、メインストリームのトランスフォーマーを、大きなマージンで継続的に増加させ、トランスフォーマーで49.43%、インフォーマーで47.34%、改革派で46.89%削減します。
論文 参考訳(メタデータ) (2022-05-28T12:27:27Z) - Transformers in Time Series: A Survey [66.50847574634726]
時系列モデリングのためのTransformerスキームを,その強みと限界を強調して体系的にレビューする。
ネットワーク構造の観点から、トランスフォーマーに施された適応と修正を要約する。
応用の観点からは,予測,異常検出,分類などの共通タスクに基づいて時系列変換器を分類する。
論文 参考訳(メタデータ) (2022-02-15T01:43:27Z) - ETSformer: Exponential Smoothing Transformers for Time-series
Forecasting [35.76867542099019]
時系列予測のための変換器の改良に指数的スムース化の原理を利用する新しい時系列変換器アーキテクチャであるETSFormerを提案する。
特に,時系列予測における古典的指数的スムージング手法に着想を得て,バニラ変圧器の自己保持機構を置き換えるために,新しい指数的スムージングアテンション(ESA)と周波数アテンション(FA)を提案する。
論文 参考訳(メタデータ) (2022-02-03T02:50:44Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。