論文の概要: Attacks of fairness in Federated Learning
- arxiv url: http://arxiv.org/abs/2311.12715v1
- Date: Tue, 21 Nov 2023 16:42:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 23:51:20.698920
- Title: Attacks of fairness in Federated Learning
- Title(参考訳): フェデレーション学習における公平性の攻撃
- Authors: Joseph Rance, Filip Svoboda
- Abstract要約: 我々は、訓練されたモデルの公平性を損なう新しいタイプの攻撃を提案する。
バックドア攻撃と同様の脅威モデルを用いることで、攻撃者は集約されたモデルに不公平な性能分布を持たせることができる。
- 参考スコア(独自算出の注目度): 1.223779595809275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning is an important emerging distributed training paradigm
that keeps data private on clients. It is now well understood that by
controlling only a small subset of FL clients, it is possible to introduce a
backdoor to a federated learning model, in the presence of certain attributes.
In this paper, we present a new type of attack that compromises the fairness of
the trained model. Fairness is understood to be the attribute-level performance
distribution of a trained model. It is particularly salient in domains where,
for example, skewed accuracy discrimination between subpopulations could have
disastrous consequences. We find that by employing a threat model similar to
that of a backdoor attack, an attacker is able to influence the aggregated
model to have an unfair performance distribution between any given set of
attributes. Furthermore, we find that this attack is possible by controlling
only a single client. While combating naturally induced unfairness in FL has
previously been discussed in depth, its artificially induced kind has been
neglected. We show that defending against attacks on fairness should be a
critical consideration in any situation where unfairness in a trained model
could benefit a user who participated in its training.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、クライアント上でデータをプライベートにするための重要な分散トレーニングパラダイムである。
現在、FLクライアントのごく一部のサブセットだけを制御することで、特定の属性の存在下で、連合学習モデルにバックドアを導入することが可能であることがよく理解されている。
本稿では,学習モデルの公平性を損なう新たな攻撃手法を提案する。
fairnessは、トレーニングされたモデルの属性レベルのパフォーマンス分布であると理解されている。
例えば、サブポピュレーション間の精度の差別が破滅的な結果をもたらすような領域では特に顕著である。
バックドア攻撃と同様の脅威モデルを使用することで、攻撃者は特定の属性セット間で不公平なパフォーマンス分布を持つように集約されたモデルに影響を及ぼすことができる。
さらに、この攻撃は1つのクライアントのみを制御することで可能となる。
flにおける自然に誘発される不公平との戦いは以前にも深く議論されてきたが、人工的に誘発される種は無視されている。
公平性に対する攻撃に対する防御は、トレーニングモデルにおける不公平さがトレーニングに参加したユーザーに利益をもたらす可能性がある状況において、重要な考慮事項である。
関連論文リスト
- PFAttack: Stealthy Attack Bypassing Group Fairness in Federated Learning [24.746843739848003]
フェデレーテッド・ラーニング(FL)は、異なる集団に対して偏見のない決定を下すグローバルモデルを、クライアントが共同でトレーニングすることを可能にする。
これまでの研究では、FLシステムは毒殺攻撃のモデルに弱いことが示されている。
本研究では,グローバルモデル精度を低下させるのではなく,公平性メカニズムを回避することを目的としたPFATTACK(Profit-driven Fairness Attack)を提案する。
論文 参考訳(メタデータ) (2024-10-09T03:23:07Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Confidence Is All You Need for MI Attacks [7.743155804758186]
モデルのトレーニングセットにおけるデータポイントのメンバシップを計測する新しい手法を提案する。
トレーニング中、モデルは基本的にトレーニングデータに'適合'しており、目に見えないデータへの一般化において特に困難に直面している可能性がある。
論文 参考訳(メタデータ) (2023-11-26T18:09:24Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - Certified Federated Adversarial Training [3.474871319204387]
我々は、労働者のクォーラムが完全に悪意のある場合、FLシステムに敵の訓練を施すシナリオに取り組む。
我々は、モデルに毒を盛ったアタッカーをモデル化し、そのモデルが明らかに敵の堅牢性を示すように、敵の訓練に弱点を挿入する。
この防御は、アダプティブアタックに対してさえも、敵の堅牢性を維持することができることを示す。
論文 参考訳(メタデータ) (2021-12-20T13:40:20Z) - Leave-one-out Unfairness [17.221751674951562]
これは、モデルのトレーニングデータに1人の人物が含まれたり排除されたりすることで、モデルの個人に対する予測がどれほど変化するかを特徴付ける。
一般化誤差が小さい場合を含め、実データ上でディープモデルがどのように不公平に振る舞うかを特徴付ける。
脱却不公平によって負の影響を受ける可能性のある健全な実践的応用について論じる。
論文 参考訳(メタデータ) (2021-07-21T15:55:49Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。