論文の概要: FedAVOT: Exact Distribution Alignment in Federated Learning via Masked Optimal Transport
- arxiv url: http://arxiv.org/abs/2509.14444v1
- Date: Wed, 17 Sep 2025 21:35:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:52.981639
- Title: FedAVOT: Exact Distribution Alignment in Federated Learning via Masked Optimal Transport
- Title(参考訳): FedAVOT:Masked Optimal Transportによるフェデレーション学習における厳密な配電アライメント
- Authors: Herlock, Rahimi, Dionysis Kalogerias,
- Abstract要約: フェデレートラーニング(FL)は、生データを共有せずに分散モデルのトレーニングを可能にするが、クライアントの参加が部分的である場合に悩む。
マスク付き最適輸送問題としてアグリゲーションを定式化する textbfFedAVOT を提案する。
実験の結果,FedAvgが不均一性,公平性に敏感で,低可用性のシステムにまたがる性能は,FedAvgに比べて大幅に向上した。
- 参考スコア(独自算出の注目度): 1.7842332554022688
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) allows distributed model training without sharing raw data, but suffers when client participation is partial. In practice, the distribution of available users (\emph{availability distribution} $q$) rarely aligns with the distribution defining the optimization objective (\emph{importance distribution} $p$), leading to biased and unstable updates under classical FedAvg. We propose \textbf{Fereated AVerage with Optimal Transport (\textbf{FedAVOT})}, which formulates aggregation as a masked optimal transport problem aligning $q$ and $p$. Using Sinkhorn scaling, \textbf{FedAVOT} computes transport-based aggregation weights with provable convergence guarantees. \textbf{FedAVOT} achieves a standard $\mathcal{O}(1/\sqrt{T})$ rate under a nonsmooth convex FL setting, independent of the number of participating users per round. Our experiments confirm drastically improved performance compared to FedAvg across heterogeneous, fairness-sensitive, and low-availability regimes, even when only two clients participate per round.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを共有せずに分散モデルのトレーニングを可能にするが、クライアントの参加が部分的である場合に悩む。
実際には、利用可能なユーザ(\emph{availability distribution} $q$)の分布は、最適化目標(\emph{importance distribution} $p$)を定義する分布とほとんど一致せず、古典的なFedAvgの下でバイアスと不安定な更新をもたらす。
マスク付き最適輸送問題としてアグリゲーションを定式化して,$q$と$p$を調整した \textbf{Fereated AVerage with Optimal Transport (\textbf{FedAVOT})} を提案する。
Sinkhorn のスケーリングを用いて、 textbf{FedAVOT} は、証明可能な収束保証とともに、輸送ベースの集約重みを計算する。
標準の$\mathcal{O}(1/\sqrt{T})$ rateを非滑らか凸FL設定で達成し、ラウンド当たりの参加ユーザ数とは無関係である。
実験の結果,FedAvgが1ラウンドに2人しか参加していない場合でも,不均一で公平性に敏感で低可用性なシステムに対して,性能が大幅に向上したことが確認された。
関連論文リスト
- Convergence of Agnostic Federated Averaging [0.0]
フェデレートラーニング(FL)は、生データを集中化せずに、分散モデルトレーニングを可能にする。
クライアントは、サーバアグリゲーションに断続的に参加し、未知の、おそらくバイアスのある参加確率で参加する。
論文 参考訳(メタデータ) (2025-07-14T14:32:46Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Debiasing Federated Learning with Correlated Client Participation [25.521881752822164]
本稿では,FLのクライアント参加をマルコフ連鎖としてモデル化する理論的枠組みを紹介する。
すべてのクライアントは、再参加する前に最低限の$R$ラウンド(最小分離)を待たなければならない。
我々は、不偏の最適解に確実に収束するFedAvgの効果的な脱バイアスアルゴリズムを開発する。
論文 参考訳(メタデータ) (2024-10-02T03:30:53Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FedSpeed: Larger Local Interval, Less Communication Round, and Higher
Generalization Accuracy [84.45004766136663]
フェデレートラーニング(Federated Learning)は、分散機械学習フレームワークである。
これは、局所的不整合最適と局所的過度な適合による頑丈なクライアントドリフトによってもたらされる非消滅バイアスに悩まされる。
本稿では,これらの問題による負の影響を軽減するために,新しい実用的手法であるFedSpeedを提案する。
論文 参考訳(メタデータ) (2023-02-21T03:55:29Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - DELTA: Diverse Client Sampling for Fasting Federated Learning [9.45219058010201]
フェデレーテッド・ラーニング(FL)では、コミュニケーションの負担を効率的に軽減するために、部分的なクライアント参加が広く採用されている。
既存のサンプリング手法はバイアスを受けるか、より高速な収束のためにさらに最適化することができる。
DELTAは,これらの問題を緩和するための非バイアスサンプリング方式である。
論文 参考訳(メタデータ) (2022-05-27T12:08:23Z) - FedPrune: Towards Inclusive Federated Learning [1.308951527147782]
フェデレートラーニング(Federated Learning, FL)は、分散データの共有モデルをプライバシ保護形式でトレーニングする分散学習技術である。
我々は,この課題に対処するシステムであるFedPruneを提案する。
Central Limit Theoremからの洞察を利用することで、FedPruneは非IIDデータよりも堅牢なパフォーマンスを実現する新しい集約テクニックを取り入れている。
論文 参考訳(メタデータ) (2021-10-27T06:33:38Z) - Faster Non-Convex Federated Learning via Global and Local Momentum [57.52663209739171]
textttFedGLOMOは最初の(一階)FLtexttFedGLOMOアルゴリズムです。
クライアントとサーバ間の通信においても,我々のアルゴリズムは確実に最適である。
論文 参考訳(メタデータ) (2020-12-07T21:05:31Z) - Distributed Non-Convex Optimization with Sublinear Speedup under
Intermittent Client Availability [46.85205907718874]
フェデレーション学習は新しい機械学習フレームワークで、多くのクライアントがトレーニングデータを共有することなく、協力的にモデルをトレーニングする。
本研究では,間欠的なモバイル環境におけるフェデレーション学習の実践と課題について考察する。
我々はFedLaAvg(略してFedLaAvg)と呼ばれる単純な分散非線形最適化アルゴリズムを提案する。
我々の理論的解析は、FedLaAvgが$(E1/2/(NT1/2)$の収束率に達し、クライアントの総数に対してサブ線形速度を達成することを示している。
論文 参考訳(メタデータ) (2020-02-18T06:32:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。