論文の概要: Federated Learning with Graph-Based Aggregation for Traffic Forecasting
- arxiv url: http://arxiv.org/abs/2507.09805v1
- Date: Sun, 13 Jul 2025 21:41:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:24.056116
- Title: Federated Learning with Graph-Based Aggregation for Traffic Forecasting
- Title(参考訳): グラフベースアグリゲーションによるフェデレーション学習による交通予測
- Authors: Audri Banik, Glaucio Haroldo Silva de Carvalho, Renata Dividino,
- Abstract要約: フェデレートラーニング(FL)は、生データを共有せずにモデルを協調的に訓練するのに適した手法である。
Federated Averaging(FedAvg)のような標準的なFLメソッドは、クライアントが独立していると仮定します。
本稿では、FedAvgの単純さとグラフ学習の重要なアイデアを融合した軽量なグラフ対応FLアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In traffic prediction, the goal is to estimate traffic speed or flow in specific regions or road segments using historical data collected by devices deployed in each area. Each region or road segment can be viewed as an individual client that measures local traffic flow, making Federated Learning (FL) a suitable approach for collaboratively training models without sharing raw data. In centralized FL, a central server collects and aggregates model updates from multiple clients to build a shared model while preserving each client's data privacy. Standard FL methods, such as Federated Averaging (FedAvg), assume that clients are independent, which can limit performance in traffic prediction tasks where spatial relationships between clients are important. Federated Graph Learning methods can capture these dependencies during server-side aggregation, but they often introduce significant computational overhead. In this paper, we propose a lightweight graph-aware FL approach that blends the simplicity of FedAvg with key ideas from graph learning. Rather than training full models, our method applies basic neighbourhood aggregation principles to guide parameter updates, weighting client models based on graph connectivity. This approach captures spatial relationships effectively while remaining computationally efficient. We evaluate our method on two benchmark traffic datasets, METR-LA and PEMS-BAY, and show that it achieves competitive performance compared to standard baselines and recent graph-based federated learning techniques.
- Abstract(参考訳): 交通予測では,各地域に配置された機器によって収集された履歴データを用いて,特定地域や道路セグメントにおける交通速度や流れを推定することを目的とする。
各リージョンまたは道路セグメントは、ローカルトラフィックフローを測定する個々のクライアントとして見ることができ、フェデレートラーニング(FL)は、生データを共有せずにモデルを協調的にトレーニングするのに適したアプローチである。
集中型FLでは、中央サーバが複数のクライアントからモデルの更新を収集して集約し、各クライアントのデータプライバシを保持しながら共有モデルを構築する。
Federated Averaging (FedAvg)のような標準的なFLメソッドは、クライアントが独立していると仮定し、クライアント間の空間的関係が重要であるトラフィック予測タスクのパフォーマンスを制限できる。
フェデレートされたグラフ学習手法は、サーバ側のアグリゲーション中にこれらの依存関係をキャプチャできるが、大きな計算オーバーヘッドをもたらすことが多い。
本稿では,FedAvgの単純さとグラフ学習の重要概念を融合した軽量なグラフ対応FL手法を提案する。
本手法は, モデル全体をトレーニングするのではなく, パラメータ更新をガイドし, グラフ接続性に基づいたクライアントモデルの重み付けを行う。
このアプローチは、計算効率を保ちながら、空間的関係を効果的に捉える。
提案手法は,METR-LAとPEMS-BAYの2つのベンチマークトラフィックデータセットを用いて評価し,従来のベースラインや最近のグラフベースのフェデレート学習技術と比較して,競争性能が向上していることを示す。
関連論文リスト
- Personalized Federated Learning via Learning Dynamic Graphs [4.569473641235369]
グラフ注意ネットワークを用いた個人化フェデレーション学習(pFedGAT)を提案する。
pFedGATは、クライアント間の潜伏グラフ構造をキャプチャし、クライアントごとに他のクライアントの重要性を動的に決定し、集約プロセスのきめ細かい制御を可能にする。
pFedGATを複数のデータ分散シナリオで評価し、3つのデータセット上でのアートメソッドの12の状態と比較した。
論文 参考訳(メタデータ) (2025-03-07T14:47:03Z) - Federated Learning for Traffic Flow Prediction with Synthetic Data Augmentation [10.751702067716804]
この研究はFedTPSと呼ばれるFLフレームワークを導入し、FLを介して軌道生成モデルをトレーニングすることで、各クライアントのローカルデータセットを増大させる合成データを生成する。
提案手法は,様々なFL手法と交通流予測モデルを用いて,大規模現実のライドシェアリングデータセットを用いて評価する。
論文 参考訳(メタデータ) (2024-12-11T15:25:38Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Efficient Cross-Domain Federated Learning by MixStyle Approximation [0.3277163122167433]
ハードウェア制約環境におけるクライアント適応のための,プライバシ保護,リソース効率の高いフェデレーション学習の概念を導入する。
このアプローチには、ソースデータに対するサーバモデル事前トレーニングと、ローエンドクライアントによるターゲットデータへの微調整が含まれる。
予備的な結果は,下流タスクにおける競合性能を維持しながら,計算コストと伝送コストを削減できることを示唆している。
論文 参考訳(メタデータ) (2023-12-12T08:33:34Z) - One-Shot Heterogeneous Federated Learning with Local Model-Guided Diffusion Models [40.83058938096914]
FedLMGは局所モデル誘導拡散モデルを用いた単発フェデレーション学習法である。
クライアントはファンデーションモデルにアクセスする必要はなく、ローカルモデルのトレーニングとアップロードのみを行う。
論文 参考訳(メタデータ) (2023-11-15T11:11:25Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Communication-Efficient Federated Learning via Optimal Client Sampling [20.757477553095637]
フェデレートラーニング(FL)は、中央サーバが多くのクライアントに分散したデータから学習をコーディネートする設定におけるプライバシー上の懸念を改善する。
本稿では,コミュニケーション制約のある環境において,新しい,シンプルで効率的な中央モデルを更新する方法を提案する。
我々は,ロジスティック回帰のための合成データセットと2つのFLベンチマーク,すなわちEMNISTの分類タスクと現実的な言語モデリングタスクを用いて,このポリシーを検証した。
論文 参考訳(メタデータ) (2020-07-30T02:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。