論文の概要: FeDaL: Federated Dataset Learning for Time Series Foundation Models
- arxiv url: http://arxiv.org/abs/2508.04045v1
- Date: Wed, 06 Aug 2025 03:14:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.523288
- Title: FeDaL: Federated Dataset Learning for Time Series Foundation Models
- Title(参考訳): FeDaL: 時系列基礎モデルのためのフェデレーションデータセット学習
- Authors: Shengchao Chen, Guodong Long, Jing Jiang,
- Abstract要約: 本稿では,フェデレートデータセット学習(FeDaL)手法を提案する。
FeDaLは、ドメインバイアス除去(DBE)とグローバルバイアス除去(GBE)の2つの相補的なメカニズムを追加することによって、局所バイアスとグローバルバイアスの両方を明示的に緩和する。
データボリューム、クライアント数、結合率は、分散化下でのモデルパフォーマンスにどのように影響するかを示す。
- 参考スコア(独自算出の注目度): 28.259753002652793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dataset-wise heterogeneity introduces significant domain biases that fundamentally degrade generalization on Time Series Foundation Models (TSFMs), yet this challenge remains underexplored. This paper rethink the development of TSFMs using the paradigm of federated learning. We propose a novel Federated Dataset Learning (FeDaL) approach to tackle heterogeneous time series by learning dataset-agnostic temporal representations. Specifically, the distributed architecture of federated learning is a nature solution to decompose heterogeneous TS datasets into shared generalized knowledge and preserved personalized knowledge. Moreover, based on the TSFM architecture, FeDaL explicitly mitigates both local and global biases by adding two complementary mechanisms: Domain Bias Elimination (DBE) and Global Bias Elimination (GBE). FeDaL`s cross-dataset generalization has been extensively evaluated in real-world datasets spanning eight tasks, including both representation learning and downstream time series analysis, against 54 baselines. We further analyze federated scaling behavior, showing how data volume, client count, and join rate affect model performance under decentralization.
- Abstract(参考訳): データセットワイドの不均一性は、時系列ファンデーションモデル(TSFM)の一般化を根本的に低下させる重要な領域バイアスをもたらすが、この問題は未解決のままである。
本稿では,フェデレートラーニングのパラダイムを用いたTSFMの開発について再考する。
データセットに依存しない時間表現を学習することで、異種時系列に対処するフェデレートデータセット学習(FeDaL)手法を提案する。
具体的には、フェデレーション学習の分散アーキテクチャは、異種TSデータセットを共有一般化知識と保存パーソナライズド知識に分解する自然解である。
さらに、TSFMアーキテクチャに基づいて、FeDaLは、ドメインバイアス除去(DBE)とグローバルバイアス除去(GBE)の2つの相補的なメカニズムを追加することで、ローカルバイアスとグローバルバイアスの両方を明示的に緩和する。
FeDaLのクロスデータセットの一般化は、表現学習と下流時系列分析を含む8つのタスクにまたがる実世界のデータセットにおいて、54のベースラインに対して広範囲に評価されている。
さらに,データボリューム,クライアント数,結合速度が分散化下でのモデルパフォーマンスにどのように影響するかを,フェデレートされたスケーリング行動を分析した。
関連論文リスト
- Federated Learning of Dynamic Bayesian Network via Continuous Optimization from Time Series Data [2.4305626489408465]
現実のシナリオでは、データは複数のエンティティに分散され、動的ベイズネットワークを協調的に学習しようとする。
本研究では,同種時系列データから動的ベイズネットワークの構造を推定するフェデレート学習手法を提案する。
そして、このアプローチを、パーソナライズされたフェデレーション学習フレームワークにおいて、近似演算子を正規化項として組み込むことにより、異種時系列データに拡張する。
論文 参考訳(メタデータ) (2024-12-13T03:09:35Z) - Federated Foundation Models on Heterogeneous Time Series [36.229082478423585]
主な目的は、Transformerアーキテクチャ上でモデルをトレーニングするためのトークンとして共有サブシーケンスを抽出するために、ドメイン間の時系列データセットを融合することである。
本稿では,時系列基礎モデルトレーニング(FFTS)における不均一性に対処する新しいフェデレーション学習手法を提案する。
新たに学習された時系列基礎モデルは、予測、計算、異常検出を含むクロスドメイン時系列解析タスクにおいて優れた一般化能力を達成する。
論文 参考訳(メタデータ) (2024-12-12T03:38:01Z) - Tackling Data Heterogeneity in Federated Time Series Forecasting [61.021413959988216]
時系列予測は、エネルギー消費予測、病気の伝染モニタリング、天気予報など、様々な実世界の応用において重要な役割を果たす。
既存のほとんどのメソッドは、分散デバイスから中央クラウドサーバに大量のデータを収集する、集中的なトレーニングパラダイムに依存しています。
本稿では,情報合成データを補助的知識キャリアとして生成することにより,データの均一性に対処する新しいフレームワークであるFed-TRENDを提案する。
論文 参考訳(メタデータ) (2024-11-24T04:56:45Z) - Cross-Dataset Gaze Estimation by Evidential Inter-intra Fusion [38.93368421481945]
クロスデータセットモデルをトレーニングするための新しいEvidential Inter-Intra Fusion EIFフレームワークを提案する。
さまざまなデータセットに対して独立した単一データセットのブランチを構築します。
さらに、単一データセットのブランチから一般化可能な機能を統合するために、クロスデータセットのブランチを作成します。
論文 参考訳(メタデータ) (2024-09-07T08:53:17Z) - Improved Generalization Bounds for Communication Efficient Federated Learning [4.3707341422218215]
本稿では,一般化境界の探索と表現学習によるフェデレーション学習の通信コストの低減に焦点をあてる。
我々は、一般化境界と表現学習分析に基づいて、適応的局所ステップ付きフェデレートラーニング(FedALS)アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-04-17T21:17:48Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - FedSiam-DA: Dual-aggregated Federated Learning via Siamese Network under
Non-IID Data [21.95009868875851]
フェデレートされた学習は、データアイランドに対処できるが、実際のアプリケーションで不均一なデータでトレーニングすることは依然として困難である。
本稿では,新しい二重集約型コントラスト学習手法であるFedSiam-DAを提案する。
論文 参考訳(メタデータ) (2022-11-17T09:05:25Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。