論文の概要: Communication-Efficient Federated AUC Maximization with Cyclic Client Participation
- arxiv url: http://arxiv.org/abs/2601.01649v1
- Date: Sun, 04 Jan 2026 19:57:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.584114
- Title: Communication-Efficient Federated AUC Maximization with Cyclic Client Participation
- Title(参考訳): 周期的クライアント参加によるコミュニケーション効率の良いフェデレーションAUCの最大化
- Authors: Umesh Vangapally, Wenhan Wu, Chen Chen, Zhishuai Guo,
- Abstract要約: AUCは複雑なデータから学習するための強力なアプローチである
一般的なペアワイズAUC損失と$O(1/3)$の不均衡と$O(1/4)$の反復を考える。
PL条件下では、これらは$widetildeO (1/)$の通信複雑性を改善する。
- 参考スコア(独自算出の注目度): 14.535377860461727
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated AUC maximization is a powerful approach for learning from imbalanced data in federated learning (FL). However, existing methods typically assume full client availability, which is rarely practical. In real-world FL systems, clients often participate in a cyclic manner: joining training according to a fixed, repeating schedule. This setting poses unique optimization challenges for the non-decomposable AUC objective. This paper addresses these challenges by developing and analyzing communication-efficient algorithms for federated AUC maximization under cyclic client participation. We investigate two key settings: First, we study AUC maximization with a squared surrogate loss, which reformulates the problem as a nonconvex-strongly-concave minimax optimization. By leveraging the Polyak-Łojasiewicz (PL) condition, we establish a state-of-the-art communication complexity of $\widetilde{O}(1/ε^{1/2})$ and iteration complexity of $\widetilde{O}(1/ε)$. Second, we consider general pairwise AUC losses. We establish a communication complexity of $O(1/ε^3)$ and an iteration complexity of $O(1/ε^4)$. Further, under the PL condition, these bounds improve to communication complexity of $\widetilde{O}(1/ε^{1/2})$ and iteration complexity of $\widetilde{O}(1/ε)$. Extensive experiments on benchmark tasks in image classification, medical imaging, and fraud detection demonstrate the superior efficiency and effectiveness of our proposed methods.
- Abstract(参考訳): フェデレートAUCの最大化は、フェデレーション学習(FL)における不均衡データから学習するための強力なアプローチである。
しかし、既存のメソッドは通常、完全なクライアント可用性を前提としています。
現実世界のFLシステムでは、クライアントはしばしば周期的なやり方で参加する。
この設定は、非分解不可能なAUCの目的に対して、ユニークな最適化の課題をもたらす。
本稿では,周期的クライアント参加下での連合AUC最大化のための通信効率の高いアルゴリズムの開発と解析により,これらの課題に対処する。
まず, AUC の最大化を正方形サロゲート損失で検討し, この問題を非凸強凸最小値最適化として再検討する。
PL条件を利用して、$\widetilde{O}(1/ε^{1/2})$の最先端通信複雑性と$\widetilde{O}(1/ε)$の反復複雑性を確立する。
次に、一般的なペアワイズAUC損失について考察する。
通信複雑性を$O(1/ε^3)$とし、反復複雑性を$O(1/ε^4)$とする。
さらに、PL条件下では、これらの境界は$\widetilde{O}(1/ε^{1/2})$の通信複雑性と$\widetilde{O}(1/ε)$の反復複雑性に改善される。
画像分類, 医用画像, 不正検出におけるベンチマークタスクの広範な実験により, 提案手法の有効性と有効性を示した。
関連論文リスト
- Rate optimal learning of equilibria from data [63.14746189846806]
マルチエージェント・イミテーション・ラーニング(MAIL)における理論的ギャップは,非対話的MAILの限界を特徴づけ,ほぼ最適なサンプル複雑性を持つ最初の対話的アルゴリズムを提示することによって解決する。
インタラクティブな設定では、報酬のない強化学習と対話型MAILを組み合わせたフレームワークを導入し、それをMAIL-WARMというアルゴリズムでインスタンス化する。
我々は,我々の理論を裏付ける数値的な結果を提供し,グリッドワールドのような環境において,行動クローンが学習に失敗する状況を示す。
論文 参考訳(メタデータ) (2025-10-10T12:28:35Z) - Towards a Sharp Analysis of Offline Policy Learning for $f$-Divergence-Regularized Contextual Bandits [49.96531901205305]
我々は$f$-divergence-regularized offline policy learningを分析する。
逆Kullback-Leibler (KL) の発散に対して、単極集中性の下での最初の$tildeO(epsilon-1)$サンプル複雑性を与える。
これらの結果は,$f$-divergence-regularized policy learningの包括的理解に向けて大きな一歩を踏み出したものと考えられる。
論文 参考訳(メタデータ) (2025-02-09T22:14:45Z) - AUCSeg: AUC-oriented Pixel-level Long-tail Semantic Segmentation [88.50256898176269]
画素レベルのAUC損失関数を開発し,アルゴリズムの一般化能力に関する依存性グラフに基づく理論的解析を行う。
また、重要なメモリ需要を管理するために、Tail-Classes Memory Bankを設計する。
論文 参考訳(メタデータ) (2024-09-30T15:31:02Z) - Momentum-Based Federated Reinforcement Learning with Interaction and Communication Efficiency [16.002770483584694]
フェデレート強化学習(FRL)が注目を集めている。
本稿では,新しいFRLアルゴリズムである$texttMFPO$を紹介する。
運動量パラメータと相互作用周波数の適切な選択により、$texttMFPO$は$tildemathcalO(H-1Nepsilon-3/2N)$および$tmathcalO(ilon-1N)$を達成することができる。
論文 参考訳(メタデータ) (2024-05-24T03:23:37Z) - Solving a Class of Non-Convex Minimax Optimization in Federated Learning [84.98927714326908]
ミニマックス問題は、機械学習のトレーニングから大規模学習まで、機械学習アプリケーション全体にわたって発生する。
本稿では,非ミニマックス問題 (emphi) に対するアルゴリズムのクラスを提案し,複雑性を$varepsilon-6)$に減らした。
我々は、FedSGDA-Mが$O(kappa2-3)$と$O(kappa2-3)$の最もよく知られた通信量を持つことを示す。
論文 参考訳(メタデータ) (2023-10-05T15:48:41Z) - Communication-Efficient Federated Bilevel Optimization with Local and
Global Lower Level Problems [118.00379425831566]
我々はFedBiOAccという通信効率の高いアルゴリズムを提案する。
我々は、FedBiOAcc-Localがこの種の問題に対して同じ速度で収束していることを証明する。
実験結果から,アルゴリズムの性能が向上した。
論文 参考訳(メタデータ) (2023-02-13T21:28:53Z) - SAGDA: Achieving $\mathcal{O}(\epsilon^{-2})$ Communication Complexity
in Federated Min-Max Learning [9.001405567602745]
本稿では,SAGDAがクライアント数とローカル更新ステップの両方で線形高速化を実現することを示す。
また,フェデレートされたmin-max学習のための標準FSGDA法の通信複雑性に関する現在の理解も進める。
論文 参考訳(メタデータ) (2022-10-02T20:04:50Z) - INTERACT: Achieving Low Sample and Communication Complexities in
Decentralized Bilevel Learning over Networks [24.02913189682224]
分散化された双方向最適化問題は、ネットワーク機械学習コミュニティで注目を集めている。
低サンプリングと通信の複雑さは、未調査のままである2つの基本的な課題である。
我々の研究は、ネットワーク上の分散化された二段階最適化問題を解決するために、低サンプリングと通信の複雑さの両方を初めて解決した。
論文 参考訳(メタデータ) (2022-07-27T04:19:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。