論文の概要: Towards Fairness-Aware Federated Learning
- arxiv url: http://arxiv.org/abs/2111.01872v3
- Date: Mon, 3 Apr 2023 06:22:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 01:52:24.278663
- Title: Towards Fairness-Aware Federated Learning
- Title(参考訳): 公平性に配慮した連合学習に向けて
- Authors: Yuxin Shi, Han Yu, Cyril Leung
- Abstract要約: 本稿では,フェデレートラーニングの大きなステップをカバーするFairness-Aware Federated Learning (FAFL) アプローチの分類法を提案する。
FAFLアプローチの性能を実験的に評価するための主要な指標について論じる。
- 参考スコア(独自算出の注目度): 19.73772410934193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in Federated Learning (FL) have brought large-scale
collaborative machine learning opportunities for massively distributed clients
with performance and data privacy guarantees. However, most current works focus
on the interest of the central controller in FL,and overlook the interests of
the FL clients. This may result in unfair treatment of clients that discourages
them from actively participating in the learning process and damages the
sustainability of the FL ecosystem. Therefore, the topic of ensuring fairness
in FL is attracting a great deal of research interest. In recent years, diverse
Fairness-Aware FL (FAFL) approaches have been proposed in an effort to achieve
fairness in FL from different perspectives. However, there is no comprehensive
survey that helps readers gain insight into this interdisciplinary field. This
paper aims to provide such a survey. By examining the fundamental and
simplifying assumptions, as well as the notions of fairness adopted by existing
literature in this field, we propose a taxonomy of FAFL approaches covering
major steps in FL, including client selection, optimization, contribution
evaluation and incentive distribution. In addition, we discuss the main metrics
for experimentally evaluating the performance of FAFL approaches, and suggest
promising future research directions towards FAFL.
- Abstract(参考訳): フェデレーション学習(fl)の最近の進歩は、パフォーマンスとデータのプライバシの保証を備えた大規模分散クライアントに、大規模な機械学習の機会をもたらした。
しかし、現在のほとんどの作品は、flにおけるセントラルコントローラの関心に焦点をあて、flクライアントの利益を見落としている。
これは、学習プロセスに積極的に参加することを妨げ、flエコシステムの持続性を損なうクライアントの不公平な扱いにつながる可能性がある。
したがって、flにおける公平性を確保するという話題は、多くの研究の関心を集めている。
近年、異なる視点からflの公平性を達成するために、多様な公正性認識fl(fafl)アプローチが提案されている。
しかし、この学際分野に対する読者の洞察を得るための総合的な調査は行われていない。
本稿ではそのような調査を行うことを目的とする。
本研究は,本分野において既存文献で採用されている公正性の概念と基本的かつ単純化された仮定を考察し,クライアント選択,最適化,貢献評価,インセンティブ分布など,FLの主要なステップをカバーするFAFLアプローチの分類法を提案する。
さらに,FAFLアプローチの性能を実験的に評価するための主要な指標について考察し,今後のFAFL研究の方向性を示唆する。
関連論文リスト
- Federated Fairness Analytics: Quantifying Fairness in Federated Learning [2.9674793945631097]
Federated Learning(FL)は、分散MLのためのプライバシ強化技術である。
FLは古典的なMLから公平性の問題を受け継ぎ、新しいものを導入している。
公正度を測定するための方法論であるフェデレートフェアネス分析を提案する。
論文 参考訳(メタデータ) (2024-08-15T15:23:32Z) - Vertical Federated Learning for Effectiveness, Security, Applicability: A Survey [67.48187503803847]
Vertical Federated Learning(VFL)は、プライバシ保護のための分散学習パラダイムである。
近年の研究では、VFLの様々な課題に対処する有望な成果が示されている。
この調査は、最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2024-05-25T16:05:06Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - FedCompetitors: Harmonious Collaboration in Federated Learning with
Competing Participants [41.070716405671206]
フェデレートラーニング(FL)は、機械学習モデルの協調トレーニングのためのプライバシ保護アプローチを提供する。
データ補完性に基づいて各FL参加者に対して適切な協力者を選択することが重要である。
一部のFL-PTが競合するFL-PT間の個人間関係を考えることは必須である。
論文 参考訳(メタデータ) (2023-12-18T17:53:01Z) - A Survey of Federated Unlearning: A Taxonomy, Challenges and Future
Directions [71.16718184611673]
プライバシ保護のためのフェデレートラーニング(FL)の進化により、忘れられる権利を実装する必要性が高まっている。
選択的な忘れ方の実装は、その分散した性質のため、FLでは特に困難である。
Federated Unlearning(FU)は、データプライバシの必要性の増加に対応する戦略的ソリューションとして登場した。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Towards Understanding Generalization and Stability Gaps between Centralized and Decentralized Federated Learning [57.35402286842029]
集中学習は常に分散学習(DFL)よりも一般化されていることを示す。
また、FLにおけるいくつかの一般的な設定について実験を行い、我々の理論解析が実験的な現象と一致し、いくつかの一般的なシナリオおよび実践シナリオにおいて文脈的に有効であることを示す。
論文 参考訳(メタデータ) (2023-10-05T11:09:42Z) - Bayesian Federated Learning: A Survey [54.40136267717288]
フェデレートラーニング(FL)は、分散インフラストラクチャ、コミュニケーション、コンピューティング、学習をプライバシ保護の方法で統合する際の利点を示している。
既存のFL手法のロバスト性と能力は、制限された動的データと条件によって挑戦される。
BFLはこれらの問題に対処するための有望なアプローチとして登場した。
論文 参考訳(メタデータ) (2023-04-26T03:41:17Z) - Towards Interpretable Federated Learning [19.764172768506132]
フェデレートラーニング(FL)は、複数のデータ所有者が、プライベートなローカルデータを公開せずに、協調して機械学習モデルを構築することを可能にする。
特に金融や医療といったミッションクリティカルなアプリケーションにおいて、パフォーマンス、プライバシ保護、解釈可能性の必要性のバランスをとることが重要です。
我々は、代表的IFL手法、一般的に採用されている性能評価指標、多目的IFL技術構築に向けた有望な方向性を包括的に分析する。
論文 参考訳(メタデータ) (2023-02-27T02:06:18Z) - FederatedScope: A Comprehensive and Flexible Federated Learning Platform
via Message Passing [63.87056362712879]
我々は,メッセージ指向フレームワークを基盤とした,新しい総合的なフェデレート学習プラットフォームであるFederatedScopeを提案する。
手続き型フレームワークと比較して、提案されたメッセージ指向フレームワークは異種メッセージ交換を表現するのに柔軟である。
我々は、FederatedScopeの正確性と効率性を検証するために、提供された簡易かつ包括的なFLベンチマークについて一連の実験を行った。
論文 参考訳(メタデータ) (2022-04-11T11:24:21Z) - Towards Verifiable Federated Learning [15.758657927386263]
Federated Learning(FL)は、強力なモデルを構築しながらユーザのプライバシを保存する、コラボレーション機械学習の新たなパラダイムである。
自己関心のある団体によるオープンな参加の性質から、FLは正当なFL参加者による潜在的な不適切な行動から守らなければならない。
検証可能なフェデレーション学習は、学界や業界からも大きな関心を集めている研究の新たな話題となっている。
論文 参考訳(メタデータ) (2022-02-15T09:52:25Z) - Proportional Fairness in Federated Learning [27.086313029073683]
PropFairは、フェデレート学習において、比例的に公平な解を見つけるための、新しく簡単に実装できるアルゴリズムである。
PropFairはおよそPFソリューションを見つけることができ、すべてのクライアントの平均的なパフォーマンスと最悪の10%のクライアントのバランスがとれることを実証します。
論文 参考訳(メタデータ) (2022-02-03T16:28:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。