論文の概要: A Survey on Group Fairness in Federated Learning: Challenges, Taxonomy of Solutions and Directions for Future Research
- arxiv url: http://arxiv.org/abs/2410.03855v1
- Date: Fri, 4 Oct 2024 18:39:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 15:50:43.464176
- Title: A Survey on Group Fairness in Federated Learning: Challenges, Taxonomy of Solutions and Directions for Future Research
- Title(参考訳): フェデレーションラーニングにおけるグループフェアネスに関する調査--課題,解決の分類,今後の研究への方向性
- Authors: Teresa Salazar, Helder Araújo, Alberto Cano, Pedro Henriques Abreu,
- Abstract要約: 機械学習におけるグループフェアネスは、異なるグループ間で平等な結果を達成することに焦点を当てた研究の重要領域である。
フェデレーション学習は、クライアント間の不均一なデータ分散による公平性の必要性を増幅する。
連合学習におけるグループフェアネスの総合的な調査は行われていない。
データパーティショニング、ロケーション、適用戦略といった重要な基準に基づいて、これらのアプローチの新しい分類法を作成します。
- 参考スコア(独自算出の注目度): 5.08731160761218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Group fairness in machine learning is a critical area of research focused on achieving equitable outcomes across different groups defined by sensitive attributes such as race or gender. Federated learning, a decentralized approach to training machine learning models across multiple devices or organizations without sharing raw data, amplifies the need for fairness due to the heterogeneous data distributions across clients, which can exacerbate biases. The intersection of federated learning and group fairness has attracted significant interest, with 47 research works specifically dedicated to addressing this issue. However, no dedicated survey has focused comprehensively on group fairness in federated learning. In this work, we present an in-depth survey on this topic, addressing the critical challenges and reviewing related works in the field. We create a novel taxonomy of these approaches based on key criteria such as data partitioning, location, and applied strategies. Additionally, we explore broader concerns related to this problem and investigate how different approaches handle the complexities of various sensitive groups and their intersections. Finally, we review the datasets and applications commonly used in current research. We conclude by highlighting key areas for future research, emphasizing the need for more methods to address the complexities of achieving group fairness in federated systems.
- Abstract(参考訳): 機械学習におけるグループフェアネス(英: Group Fairness)は、人種や性別などのセンシティブな属性によって定義された異なるグループ間で平等な結果を達成することに焦点を当てた研究分野である。
フェデレーション学習(Federated Learning)とは、複数のデバイスや組織にまたがる機械学習モデルを、生データを共有せずにトレーニングするための分散アプローチである。
連合学習とグループフェアネスの交わりは大きな関心を集めており、この問題に特化して47の研究研究が進められている。
しかし、連合学習におけるグループフェアネスの総合的な調査は行われていない。
本研究は、この分野における重要な課題に対処し、関連研究をレビューする、このトピックに関する詳細な調査を提示する。
データパーティショニング、ロケーション、適用戦略といった重要な基準に基づいて、これらのアプローチの新しい分類法を作成します。
さらに、この問題に関するより広範な懸念について検討し、異なるアプローチが様々なセンシティブなグループとその交点の複雑さをどのように扱うかを検討する。
最後に、現在の研究でよく使われるデータセットとアプリケーションについてレビューする。
我々は、今後の研究の鍵となる領域を強調し、連合システムにおけるグループフェアネスの実現の複雑さに対処する方法の必要性を強調した。
関連論文リスト
- Fair Clustering: Critique, Caveats, and Future Directions [11.077625489695922]
クラスタリングは、機械学習とオペレーション研究における根本的な問題である。
公正なクラスタリングを批判的に捉え、無視された問題の集合を特定します。
論文 参考訳(メタデータ) (2024-06-22T23:34:53Z) - Quantifying the Cross-sectoral Intersecting Discrepancies within Multiple Groups Using Latent Class Analysis Towards Fairness [6.683051393349788]
本研究は,クロスセクタ間差分を定量化するための革新的アプローチを導入する。
プロプライエタリなデータセットとパブリックなデータセットの両方を使用して、私たちのアプローチを検証する。
我々の発見は、少数民族間の大きな相違が明らかとなり、現実世界のAIアプリケーションにおいて標的となる介入の必要性が浮かび上がっている。
論文 参考訳(メタデータ) (2024-05-24T08:10:31Z) - Advances in Robust Federated Learning: Heterogeneity Considerations [25.261572089655264]
主な課題は、異なるデータ分散、モデル構造、タスク目標、計算能力、通信リソースを持つ複数のクライアントでモデルを効率的にトレーニングすることである。
本稿ではまず,不均一なフェデレーション学習の基本概念について概説する。
次に、フェデレーション学習における研究課題を、データ、モデル、タスク、デバイス、コミュニケーションの5つの側面の観点から要約する。
論文 参考訳(メタデータ) (2024-05-16T06:35:42Z) - Supervised Algorithmic Fairness in Distribution Shifts: A Survey [17.826312801085052]
現実世界のアプリケーションでは、機械学習モデルは特定のデータセットでトレーニングされることが多いが、データ分散がシフトする可能性のある環境にデプロイされる。
この変化は、人種や性別などのセンシティブな属性によって特徴づけられる特定のグループに不公平な予測をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-02-02T11:26:18Z) - Federated Learning for Generalization, Robustness, Fairness: A Survey
and Benchmark [55.898771405172155]
フェデレートラーニングは、異なる当事者間のプライバシー保護コラボレーションのための有望なパラダイムとして登場した。
我々は,連合学習研究の重要かつ最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2023-11-12T06:32:30Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Deep Clustering: A Comprehensive Survey [53.387957674512585]
クラスタリング分析は、機械学習とデータマイニングにおいて必須の役割を果たす。
ディープ・クラスタリングは、ディープ・ニューラルネットワークを使ってクラスタリングフレンドリーな表現を学習することができるが、幅広いクラスタリングタスクに広く適用されている。
ディープクラスタリングに関する既存の調査は、主にシングルビューフィールドとネットワークアーキテクチャに焦点を当てており、クラスタリングの複雑なアプリケーションシナリオを無視している。
論文 参考訳(メタデータ) (2022-10-09T02:31:32Z) - FairFed: Enabling Group Fairness in Federated Learning [22.913999279079878]
フェデレーテッド・ラーニングは、複数のパーティで機械学習モデルを学習するための有望なソリューションと見なされている。
フェアネスを意識したアグリゲーション手法によりグループフェアネスを高める新しいアルゴリズムであるFairFedを提案する。
提案手法は,高度の不均一な属性分布の下で,最先端の公正な学習フレームワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-02T17:55:20Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Heterogeneous Representation Learning: A Review [66.12816399765296]
不均一表現学習(HRL)には、いくつかの独特な課題がある。
異種入力を用いて既存の学習環境をモデル化可能な統合学習フレームワークを提案する。
HRLでは触れられていない課題と今後の研究方向性を強調します。
論文 参考訳(メタデータ) (2020-04-28T05:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。