論文の概要: FairEquityFL -- A Fair and Equitable Client Selection in Federated Learning for Heterogeneous IoV Networks
- arxiv url: http://arxiv.org/abs/2509.20193v1
- Date: Wed, 24 Sep 2025 14:48:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.862297
- Title: FairEquityFL -- A Fair and Equitable Client Selection in Federated Learning for Heterogeneous IoV Networks
- Title(参考訳): 不均一IoVネットワークのためのFairEquityFL - フェデレートラーニングにおける公平かつ等価なクライアント選択
- Authors: Fahmida Islam, Adnan Mahmood, Noorain Mukhtiar, Kasun Eranda Wijethilake, Quan Z. Sheng,
- Abstract要約: フェデレートラーニング(FL)は、機械学習における多くのアプリケーションに広く採用されている。
インターネット・オブ・ビークルズ (Internet of Vehicles, IoV) は、FLを利用してより効率的にモデルを訓練する、有望な応用の1つである。
各FLトレーニングラウンドには、クライアントのサブセットのみが参加できるため、クライアント選択プロセスの公平性に関する課題が発生する。
- 参考スコア(独自算出の注目度): 10.23221748938675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) has been extensively employed for a number of applications in machine learning, i.e., primarily owing to its privacy preserving nature and efficiency in mitigating the communication overhead. Internet of Vehicles (IoV) is one of the promising applications, wherein FL can be utilized to train a model more efficiently. Since only a subset of the clients can participate in each FL training round, challenges arise pertinent to fairness in the client selection process. Over the years, a number of researchers from both academia and industry have proposed numerous FL frameworks. However, to the best of our knowledge, none of them have employed fairness for FL-based client selection in a dynamic and heterogeneous IoV environment. Accordingly, in this paper, we envisage a FairEquityFL framework to ensure an equitable opportunity for all the clients to participate in the FL training process. In particular, we have introduced a sampling equalizer module within the selector component for ensuring fairness in terms of fair collaboration opportunity for all the clients in the client selection process. The selector is additionally responsible for both monitoring and controlling the clients' participation in each FL training round. Moreover, an outlier detection mechanism is enforced for identifying malicious clients based on the model performance in terms of considerable fluctuation in either accuracy or loss minimization. The selector flags suspicious clients and temporarily suspend such clients from participating in the FL training process. We further evaluate the performance of FairEquityFL on a publicly available dataset, FEMNIST. Our simulation results depict that FairEquityFL outperforms baseline models to a considerable extent.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、主に通信オーバーヘッドを軽減するためのプライバシー保護と効率性のために、機械学習における多くのアプリケーションに広く採用されている。
インターネット・オブ・ビークルズ (Internet of Vehicles, IoV) は、FLを利用してより効率的にモデルを訓練する、有望な応用の1つである。
各FLトレーニングラウンドには、クライアントのサブセットのみが参加できるため、クライアント選択プロセスの公平性に関する課題が発生する。
長年にわたり、学術と産業の両方から多くの研究者が多くのFLフレームワークを提案してきた。
しかし、私たちの知る限りでは、FLベースのクライアント選択において、動的で異種なIoV環境において公平性は採用されていない。
そこで本稿では、FairEquityFLフレームワークを構想し、すべてのクライアントがFLトレーニングプロセスに参加する公平な機会を確保する。
特に,クライアント選択プロセスにおける全てのクライアントに対する公正な協調機会の観点から,公平性を確保するために,セレクタコンポーネント内にサンプリング等化器モジュールを導入している。
セレクタは、各FLトレーニングラウンドにおけるクライアントの参加を監視および制御する責任も負う。
さらに、モデル性能に基づいて悪意のあるクライアントを識別するために、精度または損失最小化のいずれにおいてもかなりの変動率で異常検出機構を施行する。
セレクタは不審なクライアントにフラグを立て、そのクライアントがFLトレーニングプロセスに参加するのを一時的に停止する。
FEMNISTを用いてFairEquityFLの性能評価を行った。
シミュレーションの結果,FairEquityFLはベースラインモデルよりもかなり優れていた。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Embracing Federated Learning: Enabling Weak Client Participation via Partial Model Training [21.89214794178211]
フェデレートラーニング(FL)では、クライアントは完全なモデルをトレーニングしたり、メモリ空間に保持することができない弱いデバイスを持っているかもしれない。
我々は、すべての利用可能なクライアントが分散トレーニングに参加することを可能にする、一般的なFLフレームワークであるEnbracingFLを提案する。
実験により,FL の導入は,すべてのクライアントが強力であるように常に高い精度を達成し,最先端の幅削減手法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-21T13:19:29Z) - Fairness-Aware Client Selection for Federated Learning [13.781019191483864]
フェデレートラーニング(FL)により、複数のデータ所有者(FLクライアント)が、プライベートデータを公開せずに、機械学習モデルを協調的にトレーニングできるようになった。
FLサーバは各トレーニングラウンドで限られた数のクライアントしか扱えないため、FLクライアントの選択は重要な研究課題となっている。
Lyapunovの最適化に基づき、FLクライアントの評判、FLタスクへの参加時期、モデル性能への貢献を共同で考慮し、FLクライアントの選択確率を動的に調整する。
論文 参考訳(メタデータ) (2023-07-20T10:04:55Z) - Client Selection in Federated Learning: Principles, Challenges, and
Opportunities [15.33636272844544]
Federated Learning(FL)は、機械学習(ML)モデルをトレーニングするためのプライバシー保護パラダイムである。
典型的なFLシナリオでは、クライアントはデータ分散とハードウェア構成の点で大きな異質性を示す。
様々なクライアント選択アルゴリズムが開発され、性能改善が期待できる。
論文 参考訳(メタデータ) (2022-11-03T01:51:14Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - FL Games: A federated learning framework for distribution shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するためのゲーム理論のフレームワークであるFL Gamesを提案する。
論文 参考訳(メタデータ) (2022-05-23T07:51:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。