論文の概要: Federated Learning Framework via Distributed Mutual Learning
- arxiv url: http://arxiv.org/abs/2503.05803v1
- Date: Mon, 03 Mar 2025 20:15:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 07:11:41.734769
- Title: Federated Learning Framework via Distributed Mutual Learning
- Title(参考訳): 分散相互学習によるフェデレーション学習フレームワーク
- Authors: Yash Gupta,
- Abstract要約: フェデレートラーニングは、ネットワークの帯域幅を負担し、プライバシーリスクを増大させる、完全なモデルウェイトまたは部分的なモデルウェイトを共有することに依存することが多い。
分散相互学習を用いた損失に基づく代替手法を提案する。
- 参考スコア(独自算出の注目度): 2.0089559051336923
- License:
- Abstract: Federated Learning often relies on sharing full or partial model weights, which can burden network bandwidth and raise privacy risks. We present a loss-based alternative using distributed mutual learning. Instead of transmitting weights, clients periodically share their loss predictions on a public test set. Each client then refines its model by combining its local loss with the average Kullback-Leibler divergence over losses from other clients. This collaborative approach both reduces transmission overhead and preserves data privacy. Experiments on a face mask detection task demonstrate that our method outperforms weight-sharing baselines, achieving higher accuracy on unseen data while providing stronger generalization and privacy benefits.
- Abstract(参考訳): フェデレートラーニングは、ネットワークの帯域幅を負担し、プライバシーリスクを増大させる、完全なモデルウェイトまたは部分的なモデルウェイトを共有することに依存することが多い。
分散相互学習を用いた損失に基づく代替手法を提案する。
ウェイトを送信する代わりに、クライアントは定期的に損失予測を公開テストセットで共有する。
各クライアントは、そのローカル損失と、他のクライアントからの損失に対する平均的なKullback-Leibler分散を組み合わせて、そのモデルを洗練する。
このコラボレーティブなアプローチは、トランスミッションのオーバーヘッドを減らし、データのプライバシを保存する。
フェースマスク検出タスクの実験では,本手法がウェイトシェアリングベースラインより優れ,見えないデータに対して高い精度を実現し,より強力な一般化とプライバシのメリットを提供することを示した。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Performance Weighting for Robust Federated Learning Against Corrupted
Sources [1.76179873429447]
分散機械学習の計算パラダイムとしてフェデレートラーニングが登場している。
現実世界のアプリケーションでは、フェデレーションされた環境は、好意的なクライアントと悪意のあるクライアントの混在によって構成される。
局所重みの標準的グローバルアグリゲーション方式は, クライアントの破損の有無で非効率であることを示す。
論文 参考訳(メタデータ) (2022-05-02T20:01:44Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Towards Fair Federated Learning with Zero-Shot Data Augmentation [123.37082242750866]
フェデレーション学習は重要な分散学習パラダイムとして登場し、サーバはクライアントデータにアクセスせずに、多くのクライアントがトレーニングしたモデルからグローバルモデルを集約する。
本稿では, 統計的不均一性を緩和し, フェデレートネットワークにおけるクライアント間での精度向上を図るために, ゼロショットデータ拡張を用いた新しいフェデレーション学習システムを提案する。
Fed-ZDAC (クライアントでのゼロショットデータ拡張によるフェデレーション学習) と Fed-ZDAS (サーバでのゼロショットデータ拡張によるフェデレーション学習) の2種類について検討する。
論文 参考訳(メタデータ) (2021-04-27T18:23:54Z) - Towards Causal Federated Learning For Enhanced Robustness and Privacy [5.858642952428615]
フェデレーションラーニングは、新たなプライバシー保護型分散機械学習アプローチである。
参加するすべてのクライアントにまたがるデータサンプルは通常独立ではなく、同一に配布される。
本稿では,連帯学習環境において,参加するすべてのクライアントに共通する不変(causal)特徴の学習手法を提案する。
論文 参考訳(メタデータ) (2021-04-14T00:08:45Z) - Auto-weighted Robust Federated Learning with Corrupted Data Sources [7.475348174281237]
フェデレーション学習はコミュニケーション効率とプライバシ保護のトレーニングプロセスを提供する。
平均損失関数をナイーブに最小化する標準的なフェデレーション学習技術は、データの破損に弱い。
破損したデータソースに対して堅牢性を提供するために、自動重み付けロバストフェデレーテッドラーニング(arfl)を提案します。
論文 参考訳(メタデータ) (2021-01-14T21:54:55Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。