論文の概要: Edge AI in Highly Volatile Environments: Is Fairness Worth the Accuracy Trade-off?
- arxiv url: http://arxiv.org/abs/2511.01737v1
- Date: Mon, 03 Nov 2025 16:51:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.331442
- Title: Edge AI in Highly Volatile Environments: Is Fairness Worth the Accuracy Trade-off?
- Title(参考訳): 高揮発性環境におけるエッジAI - フェアネスは正確なトレードオフなのか?
- Authors: Obaidullah Zaland, Feras M. Awaysheh, Sawsan Al Zubi, Abdul Rahman Safi, Monowar Bhuyan,
- Abstract要約: フェデレートラーニング(FL)はエッジインテリジェンスのためのトランスフォーメーションパラダイムとして登場し、分散されたパーソナルデバイス間でデータのプライバシを保持しながら、協調的なモデルトレーニングを可能にしている。
本稿では,高揮発性エッジ環境におけるモデル精度と公平性の基本的なトレードオフについて検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has emerged as a transformative paradigm for edge intelligence, enabling collaborative model training while preserving data privacy across distributed personal devices. However, the inherent volatility of edge environments, characterized by dynamic resource availability and heterogeneous client capabilities, poses significant challenges for achieving high accuracy and fairness in client participation. This paper investigates the fundamental trade-off between model accuracy and fairness in highly volatile edge environments. This paper provides an extensive empirical evaluation of fairness-based client selection algorithms such as RBFF and RBCSF against random and greedy client selection regarding fairness, model performance, and time, in three benchmarking datasets (CIFAR10, FashionMNIST, and EMNIST). This work aims to shed light on the fairness-performance and fairness-speed trade-offs in a volatile edge environment and explore potential future research opportunities to address existing pitfalls in \textit{fair client selection} strategies in FL. Our results indicate that more equitable client selection algorithms, while providing a marginally better opportunity among clients, can result in slower global training in volatile environments\footnote{The code for our experiments can be found at https://github.com/obaidullahzaland/FairFL_FLTA.
- Abstract(参考訳): フェデレートラーニング(FL)はエッジインテリジェンスのためのトランスフォーメーションパラダイムとして登場し、分散されたパーソナルデバイス間でデータのプライバシを保持しながら、協調的なモデルトレーニングを可能にしている。
しかし、動的リソース可用性と不均一なクライアント機能によって特徴づけられるエッジ環境固有のボラティリティは、クライアントの参加において高い精度と公平性を達成する上で大きな課題を提起する。
本稿では,高揮発性エッジ環境におけるモデル精度と公平性の基本的なトレードオフについて検討する。
本稿では,3つのベンチマークデータセット (CIFAR10, FashionMNIST, EMNIST) において, RBFF や RBCSF などの公正性に基づくクライアント選択アルゴリズムを, 公平性, モデル性能, 時間に関するランダムで欲求的なクライアント選択に対して広範囲に評価する。
本研究の目的は、揮発性エッジ環境におけるフェアネス・パフォーマンスとフェアネス・スピードのトレードオフに光を当て、FLの‘textit{fair client selection}戦略における既存の落とし穴に対処する将来の研究機会を探ることである。
以上の結果から,クライアント間でより公平なクライアント選択アルゴリズムを提供することによって,揮発性環境におけるグローバルトレーニングが遅くなる可能性が示唆された。
関連論文リスト
- FeDa4Fair: Client-Level Federated Datasets for Fairness Evaluation [5.195640929313995]
Federated Learning (FL)は、クライアントのプライベートデータを共有せずに、複数のクライアント間で協調的なモデルトレーニングを可能にする。
クライアントにまたがる多様で、しばしば矛盾するバイアスは、公正性をモデル化する上で大きな課題をもたらします。
現在のフェアネス・エンハンシング FL ソリューションは、1つの、通常二進的、敏感な属性に対するバイアスを緩和する一方、現実世界の環境に存在する不均一なフェアネスのニーズを無視しているため、しばしば不足する。
論文 参考訳(メタデータ) (2025-06-26T08:43:12Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - FLASH: Federated Learning Across Simultaneous Heterogeneities [55.0981921695672]
FLASH (Federated Learning Across Simultaneous Heterogeneities) は軽量かつ柔軟なクライアント選択アルゴリズムである。
ヘテロジニティの幅広い情報源の下で、最先端のFLフレームワークよりも優れています。
最先端のベースラインよりも大幅に、一貫性のある改善を実現している。
論文 参考訳(メタデータ) (2024-02-13T20:04:39Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Client Selection in Federated Learning: Principles, Challenges, and
Opportunities [15.33636272844544]
Federated Learning(FL)は、機械学習(ML)モデルをトレーニングするためのプライバシー保護パラダイムである。
典型的なFLシナリオでは、クライアントはデータ分散とハードウェア構成の点で大きな異質性を示す。
様々なクライアント選択アルゴリズムが開発され、性能改善が期待できる。
論文 参考訳(メタデータ) (2022-11-03T01:51:14Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Stochastic Client Selection for Federated Learning with Volatile Clients [41.591655430723186]
Federated Learning(FL)は、プライバシ保護機械学習パラダイムである。
同期FLトレーニングの各ラウンドでは、参加できるクライアントはごくわずかである。
本稿では,この問題を解決するためのクライアント選択方式であるE3CSを提案する。
論文 参考訳(メタデータ) (2020-11-17T16:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。