論文の概要: Towards Multi-Objective Statistically Fair Federated Learning
- arxiv url: http://arxiv.org/abs/2201.09917v1
- Date: Mon, 24 Jan 2022 19:22:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 14:32:43.597860
- Title: Towards Multi-Objective Statistically Fair Federated Learning
- Title(参考訳): 多目的統計的公正学習を目指して
- Authors: Ninareh Mehrabi, Cyprien de Lichy, John McKay, Cynthia He, William
Campbell
- Abstract要約: フェデレートラーニング(FL)は、データの所有権とプライバシーに関する懸念の結果生まれた。
本稿では,様々な統計的公正度指標を含む複数の目的を満足できる新しいFLフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.2687030176231846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) has emerged as a result of data ownership and privacy
concerns to prevent data from being shared between multiple parties included in
a training procedure. Although issues, such as privacy, have gained significant
attention in this domain, not much attention has been given to satisfying
statistical fairness measures in the FL setting. With this goal in mind, we
conduct studies to show that FL is able to satisfy different fairness metrics
under different data regimes consisting of different types of clients. More
specifically, uncooperative or adversarial clients might contaminate the global
FL model by injecting biased or poisoned models due to existing biases in their
training datasets. Those biases might be a result of imbalanced training set
(Zhang and Zhou 2019), historical biases (Mehrabi et al. 2021a), or poisoned
data-points from data poisoning attacks against fairness (Mehrabi et al. 2021b;
Solans, Biggio, and Castillo 2020). Thus, we propose a new FL framework that is
able to satisfy multiple objectives including various statistical fairness
metrics. Through experimentation, we then show the effectiveness of this method
comparing it with various baselines, its ability in satisfying different
objectives collectively and individually, and its ability in identifying
uncooperative or adversarial clients and down-weighing their effect
- Abstract(参考訳): フェデレーション学習(federated learning, fl)は、トレーニング手順に含まれる複数の当事者間でデータが共有されることを防ぐためのデータ所有とプライバシに関する懸念の結果生まれた。
プライバシーなどの問題はこの分野で注目されているが、FL設定における統計的公正度を満足させるためにはあまり注目されていない。
この目的を念頭に置いて、異なる種類のクライアントからなる異なるデータレジームの下で、flが異なる公平度メトリクスを満足できることを示す研究を行う。
より具体的には、非協力的または敵対的なクライアントは、トレーニングデータセットに既存のバイアスがあるため、偏りまたは有毒なモデルを注入することでグローバルflモデルを汚染する可能性がある。
これらのバイアスは、トレーニングセットの不均衡(Zhang and Zhou 2019)、履歴バイアス(Mehrabi et al. 2021a)、データ中毒によるフェアネス攻撃(Mehrabi et al. 2021b; Solans, Biggio, Castillo 2020)の結果かもしれない。
そこで本稿では,様々な統計的公正度指標を含む複数の目的を満足できる新しいFLフレームワークを提案する。
実験を通して,異なる目的を個別に満たす能力,非協力的・敵対的クライアントを識別し,その効果を軽視する能力について,様々なベースラインと比較する手法の有効性を示す。
関連論文リスト
- SoK: Challenges and Opportunities in Federated Unlearning [32.0365189539138]
本論文は、この新興分野における研究動向と課題を特定することを目的として、未学習の未学習文学を深く研究することを目的としている。
論文 参考訳(メタデータ) (2024-03-04T19:35:08Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを紹介する。
Fair MEDLは、クラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
敵の偏見を取り入れて、平等化オッド、デモグラフィックパリティ、カウンターファクトフェアネスの3つの主要な指標の公平性を促進する。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - FedVal: Different good or different bad in federated learning [9.558549875692808]
フェデレート・ラーニング(FL)システムは悪意のあるアクターからの攻撃を受けやすい。
FLは、異なる人口集団の公正なパフォーマンスを保証するなど、グループの偏見に対処する上で、新たな課題を提起する。
このようなバイアスに対処するために使用される従来の方法は、FLシステムが持っていないデータへの集中的なアクセスを必要とする。
我々は、クライアントからの追加情報を必要としない堅牢性と公正性の両方に対して、新しいアプローチであるFedValを提案する。
論文 参考訳(メタデータ) (2023-06-06T22:11:13Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - FedFA: Federated Feature Augmentation [25.130087374092383]
フェデレーション学習は、複数のパーティが生データを交換することなく、ディープモデルを協調的にトレーニングすることを可能にする。
本研究の主な目的は,クライアントのサンプルの特徴変化に対処する堅牢なフェデレーション学習アルゴリズムを開発することである。
我々は,フェデレーション機能強化の観点から,フェデレーション学習に取り組むためのFedFAを提案する。
論文 参考訳(メタデータ) (2023-01-30T15:39:55Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Towards Understanding Quality Challenges of the Federated Learning: A
First Look from the Lens of Robustness [4.822471415125479]
Federated Learning(FL)は、すべての参加者のデータセット全体をトレーニングに活用しながら、ユーザのデータのプライバシを保護することを目的としている。
FLは依然として攻撃やビザンチン障害などの品質問題に悩まされる傾向にある。
本報告では,攻撃・故障発生におけるSOTA(State-of-the-art)の強靭なFL手法の有効性について検討する。
論文 参考訳(メタデータ) (2022-01-05T02:06:39Z) - A Principled Approach to Data Valuation for Federated Learning [73.19984041333599]
フェデレートラーニング(FL)は、分散データソース上で機械学習(ML)モデルをトレーニングする一般的なテクニックである。
Shapley value (SV) はデータ値の概念として多くのデシラタを満たすユニークなペイオフスキームを定義する。
本稿では,FL に対応する SV の変種を提案する。
論文 参考訳(メタデータ) (2020-09-14T04:37:54Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。