論文の概要: FedSelect-ME: A Secure Multi-Edge Federated Learning Framework with Adaptive Client Scoring
- arxiv url: http://arxiv.org/abs/2511.01898v1
- Date: Wed, 29 Oct 2025 18:32:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.573742
- Title: FedSelect-ME: A Secure Multi-Edge Federated Learning Framework with Adaptive Client Scoring
- Title(参考訳): FedSelect-ME: 適応型クライアントスコーディングによるセキュアなマルチエッジフェデレーション学習フレームワーク
- Authors: Hanie Vatani, Reza Ebrahimi Atani,
- Abstract要約: フェデレートラーニング(FL)は、生データを共有せずに協調的なモデルトレーニングを可能にするが、限られたスケーラビリティ、高い通信コスト、プライバシーリスクに悩まされる。
本稿では,スケーラビリティ,セキュリティ,エネルギー効率を向上させる階層型マルチエッジFLフレームワークであるFedSelect-MEを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables collaborative model training without sharing raw data but suffers from limited scalability, high communication costs, and privacy risks due to its centralized architecture. This paper proposes FedSelect-ME, a hierarchical multi-edge FL framework that enhances scalability, security, and energy efficiency. Multiple edge servers distribute workloads and perform score-based client selection, prioritizing participants based on utility, energy efficiency, and data sensitivity. Secure Aggregation with Homomorphic Encryption and Differential Privacy protects model updates from exposure and manipulation. Evaluated on the eICU healthcare dataset, FedSelect-ME achieves higher prediction accuracy, improved fairness across regions, and reduced communication overhead compared to FedAvg, FedProx, and FedSelect. The results demonstrate that the proposed framework effectively addresses the bottlenecks of conventional FL, offering a secure, scalable, and efficient solution for large-scale, privacy-sensitive healthcare applications.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを共有せずに協調的なモデルトレーニングを可能にするが、集中型アーキテクチャによるスケーラビリティ、高い通信コスト、プライバシーリスクに悩まされる。
本稿では,スケーラビリティ,セキュリティ,エネルギー効率を向上させる階層型マルチエッジFLフレームワークであるFedSelect-MEを提案する。
複数のエッジサーバがワークロードを分散してスコアベースのクライアント選択を実行し、ユーティリティ、エネルギ効率、データ感度に基づいて参加者を優先順位付けする。
ホモモルフィック暗号化と微分プライバシによるセキュアなアグリゲーションは、モデル更新を露出と操作から保護する。
eICUの医療データセットに基づいて評価されたFedSelect-MEは、予測精度の向上、地域間の公正性の向上、FedAvg、FedProx、FedSelectと比較して通信オーバーヘッドの低減を実現している。
提案するフレームワークは,大規模でプライバシに敏感な医療アプリケーションに対して,セキュアでスケーラブルで効率的なソリューションを提供する,従来のFLのボトルネックに効果的に対処している。
関連論文リスト
- Subgraph Federated Learning via Spectral Methods [52.40322201034717]
FedLapは、プライバシとスケーラビリティを確保しながら、ノード間の依存関係をキャプチャする新しいフレームワークである。
我々は、FedLapのプライバシを正式に分析し、プライバシを保存することを実証する。
論文 参考訳(メタデータ) (2025-10-29T16:22:32Z) - FuSeFL: Fully Secure and Scalable Cross-Silo Federated Learning [0.696125353550498]
フェデレートラーニング(FL)は、クライアントデータを集中化せずに協調的なモデルトレーニングを可能にするため、プライバシに敏感なドメインには魅力的である。
クロスサイロ設定用に設計された完全セキュアでスケーラブルなFLスキームであるFuSeFLを提案する。
論文 参考訳(メタデータ) (2025-07-18T00:50:44Z) - FedShield-LLM: A Secure and Scalable Federated Fine-Tuned Large Language Model [0.48342038441006796]
Federated Learning (FL)は、LLM(Large Language Models)のトレーニングと微調整のための分散フレームワークを提供する。
FLはプライバシとセキュリティの懸念に対処し、LLMの相当な計算要求に関連する課題をナビゲートする。
ローランド適応 (LoRA) パラメータに対して, 完全同型暗号化 (FHE) を用いたプルーニングを用いた新しいFedShield-LLMを提案する。
論文 参考訳(メタデータ) (2025-06-06T00:05:05Z) - Blockchain-Enabled Privacy-Preserving Second-Order Federated Edge Learning in Personalized Healthcare [1.859970493489417]
フェデレートラーニング(FL)は、従来のクラウド中心の機械学習モデルにおいて、セキュリティとプライバシの課題に注目が集まっている。
1次FLアプローチは、異種非独立で同一に分散された(非id)データにより、パーソナライズされたモデルトレーニングにおいていくつかの課題に直面している。
近年,2次FLアプローチは,パーソナライズされたモデルトレーニングを改善しつつ,非IDデータセットの安定性と一貫性を維持している。
論文 参考訳(メタデータ) (2025-05-31T06:41:04Z) - Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - WPFed: Web-based Personalized Federation for Decentralized Systems [11.458835427697442]
我々はWPFedを紹介した。WPFedは、グローバルに最適な隣人選択を可能にするように設計された、完全に分散されたWebベースの学習フレームワークである。
セキュリティを強化し、悪意のある振る舞いを抑えるため、WPFedはLSHコードとパフォーマンスランキングの両方の検証メカニズムを統合している。
我々の発見は、WPFedが多種多様な相互接続されたWeb環境にまたがって効果的でセキュアな分散協調学習を促進する可能性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-10-15T08:17:42Z) - Optimizing Cross-Client Domain Coverage for Federated Instruction Tuning of Large Language Models [87.49293964617128]
大規模言語モデル(LLM)のためのFedDIT(Federated Domain-specific instruction tuning)は、分散プライベートデータと限定データを用いて、特定のドメインの性能を向上させることを目的としている。
データ不均一性ではなく、クロスクライアントなドメインカバレッジが重要な要素であることを実証的に証明します。
我々は多様性指向のクライアントセンターの選択と検索に基づく拡張を通じて、このカバレッジを明示的に最大化するアルゴリズムであるFedDCAを紹介する。
論文 参考訳(メタデータ) (2024-09-30T09:34:31Z) - Blockchain-empowered Federated Learning for Healthcare Metaverses:
User-centric Incentive Mechanism with Optimal Data Freshness [66.3982155172418]
まず、医療メタバースのための分散型フェデレートラーニング(FL)に基づく、ユーザ中心のプライバシ保護フレームワークを設計する。
次に,情報時代(AoI)を有効データ更新度指標として利用し,観測理論(PT)に基づくAoIベースの契約理論モデルを提案し,センシングデータ共有の動機付けを行う。
論文 参考訳(メタデータ) (2023-07-29T12:54:03Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。