論文の概要: Beyond Fixed Rounds: Data-Free Early Stopping for Practical Federated Learning
- arxiv url: http://arxiv.org/abs/2601.22669v1
- Date: Fri, 30 Jan 2026 07:42:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.301894
- Title: Beyond Fixed Rounds: Data-Free Early Stopping for Practical Federated Learning
- Title(参考訳): 固定ラウンドを超えて: 実践的なフェデレーション学習のためのデータ不要早期停止
- Authors: Youngjoon Lee, Hyukjoon Lee, Seungrok Jung, Andy Luo, Jinu Gong, Yang Cao, Joonhyuk Kang,
- Abstract要約: フェデレートラーニング(FL)は、生データを送信することなく、分散化された協調学習を促進する。
本稿では,サーバ側パラメータのみを用いてタスクベクトルの成長率を監視することにより,最適な停止点を決定するデータフリー早期停止フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.643684319119214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) facilitates decentralized collaborative learning without transmitting raw data. However, reliance on fixed global rounds or validation data for hyperparameter tuning hinders practical deployment by incurring high computational costs and privacy risks. To address this, we propose a data-free early stopping framework that determines the optimal stopping point by monitoring the task vector's growth rate using solely server-side parameters. The numerical results on skin lesion/blood cell classification demonstrate that our approach is comparable to validation-based early stopping across various state-of-the-art FL methods. In particular, the proposed framework spends an average of 47/20 (skin lesion/blood cell) rounds to achieve over 12.5%/10.3% higher performance than early stopping based on validation data. To the best of our knowledge, this is the first work to propose an early stopping framework for FL methods without using any validation data.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを送信することなく、分散化された協調学習を促進する。
しかし、ハイパーパラメータチューニングのための固定されたグローバルラウンドや検証データへの依存は、高い計算コストとプライバシリスクを発生させることで、実践的なデプロイメントを妨げる。
そこで本研究では,サーバ側パラメータのみを用いてタスクベクトルの成長率を監視することにより,最適な停止点を決定するデータフリー早期停止フレームワークを提案する。
皮膚病変・血液細胞分類の数値的な結果から,本手法は様々な最先端FL法における早期停止と同等であることが明らかとなった。
特に、提案フレームワークは、平均47/20ラウンド(皮膚病変/血液細胞)を使用して、検証データに基づく早期停止よりも12.5%/10.3%以上のパフォーマンスを実現している。
我々の知る限りでは、検証データを使わずにFLメソッドの早期停止フレームワークを提案する最初の試みである。
関連論文リスト
- When to Stop Federated Learning: Zero-Shot Generation of Synthetic Validation Data with Generative AI for Early Stopping [5.0740578889286105]
フェデレートラーニング(FL)は、分散デバイス間の協調モデルトレーニングを可能にする。
モデル性能の監視に生成AIを活用するゼロショット合成検証フレームワークを導入する。
本手法では,最適ラウンド付近でのトレーニングを適応的に停止し,計算資源の保存を行う。
論文 参考訳(メタデータ) (2025-11-14T12:07:32Z) - Tackling Federated Unlearning as a Parameter Estimation Problem [2.9085589574462816]
本研究は,情報理論に基づく効果的なフェデレート・アンラーニング・フレームワークを提案する。
本手法では, 忘れられているデータに最も敏感なパラメータのみを識別し, 選択的にリセットするために, 2次ヘッセン情報を用いる。
論文 参考訳(メタデータ) (2025-08-26T14:24:45Z) - The First Few Tokens Are All You Need: An Efficient and Effective Unsupervised Prefix Fine-Tuning Method for Reasoning Models [69.798277882245]
大規模言語モデルの推論効率を向上させるために,Unsupervised Prefix Fine-Tuning (UPFT)を導入した。
UPFTはラベル付きデータや徹底的なサンプリングの必要性を取り除く。
実験の結果,UPFTは教師付き手法の性能と一致していることがわかった。
論文 参考訳(メタデータ) (2025-03-04T18:56:03Z) - FedCert: Federated Accuracy Certification [8.34167718121698]
フェデレートラーニング(FL)は、機械学習モデルを分散的にトレーニングするための強力なパラダイムとして登場した。
従来の研究では、認定精度に基づいて、集中訓練におけるモデルの有効性を評価してきた。
本研究では,FLシステムのロバスト性を評価するためのFedCertという手法を提案する。
論文 参考訳(メタデータ) (2024-10-04T01:19:09Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - On the Importance and Applicability of Pre-Training for Federated
Learning [28.238484580662785]
我々は,連合学習のための事前学習を体系的に研究する。
事前学習はFLを改善するだけでなく,その精度のギャップを集中学習に埋めることもできる。
本論文は,FLに対する事前学習の効果を解明する試みとしてまとめる。
論文 参考訳(メタデータ) (2022-06-23T06:02:33Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。