論文の概要: Exploiting Fairness to Enhance Sensitive Attributes Reconstruction
- arxiv url: http://arxiv.org/abs/2209.01215v1
- Date: Fri, 2 Sep 2022 06:15:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 13:10:09.610812
- Title: Exploiting Fairness to Enhance Sensitive Attributes Reconstruction
- Title(参考訳): 感性属性の再構成を促進するためのフェアネスの爆発
- Authors: Julien Ferry (LAAS-ROC), Ulrich A\"ivodji (ETS), S\'ebastien Gambs
(UQAM), Marie-Jos\'e Huguet (LAAS-ROC), Mohamed Siala (LAAS-ROC)
- Abstract要約: 近年、公正な制約の下で機械学習モデルを学習する方法に関する研究が増えている。
本研究では,このモデルの公正性に関する情報を敵に活用して,トレーニングデータの感度特性の再構築を促進できることを示す。
本稿では,初期推定を入力とし,ユーザ定義制約に適合するように補正する汎用的な再構成補正手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, a growing body of work has emerged on how to learn machine
learning models under fairness constraints, often expressed with respect to
some sensitive attributes. In this work, we consider the setting in which an
adversary has black-box access to a target model and show that information
about this model's fairness can be exploited by the adversary to enhance his
reconstruction of the sensitive attributes of the training data. More
precisely, we propose a generic reconstruction correction method, which takes
as input an initial guess made by the adversary and corrects it to comply with
some user-defined constraints (such as the fairness information) while
minimizing the changes in the adversary's guess. The proposed method is
agnostic to the type of target model, the fairness-aware learning method as
well as the auxiliary knowledge of the adversary. To assess the applicability
of our approach, we have conducted a thorough experimental evaluation on two
state-of-the-art fair learning methods, using four different fairness metrics
with a wide range of tolerances and with three datasets of diverse sizes and
sensitive attributes. The experimental results demonstrate the effectiveness of
the proposed approach to improve the reconstruction of the sensitive attributes
of the training set.
- Abstract(参考訳): 近年、公正な制約の下で機械学習モデルを学習する方法に関する研究が増えている。
本研究では,対象モデルへのブラックボックスアクセスを敵が有する設定について検討し,このモデルの公平性に関する情報を敵が活用し,トレーニングデータの繊細な属性の再構築を促進することができることを示す。
より正確には、敵が行った最初の推測を入力として、敵の推測の変更を最小限に抑えつつ、一部のユーザー定義の制約(フェアネス情報など)に従うように修正する、総称再構成補正法を提案する。
提案手法は,対象モデルの種類,公平性を意識した学習法,および敵の補助的知識に依存しない。
提案手法の適用性を評価するため,我々は4つの異なる公平度指標と多種多様なサイズと繊細な属性のデータセットを用いて,2つの公正な学習手法を徹底的に実験的に評価した。
実験の結果,訓練セットの敏感な属性の再構築を改善するための提案手法の有効性が示された。
関連論文リスト
- Enhancing Fairness and Performance in Machine Learning Models: A Multi-Task Learning Approach with Monte-Carlo Dropout and Pareto Optimality [1.5498930424110338]
本研究では,モデル不確実性を利用した機械学習におけるバイアス軽減手法を提案する。
提案手法では,モンテカルロ・ドロップアウト(MC)と組み合わせたマルチタスク学習(MTL)フレームワークを用いて,保護ラベルに関連する予測の不確実性を評価・緩和する。
論文 参考訳(メタデータ) (2024-04-12T04:17:50Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Counterfactual Fair Opportunity: Measuring Decision Model Fairness with
Counterfactual Reasoning [5.626570248105078]
本研究は,不注意条件下での公正な場合において,反実的推論を用いて不公平なモデル行動を明らかにすることを目的とする。
対物フェアという対物機会の対物バージョンを定義し、対物サンプルのセンシティブな情報を分析する2つの新しい指標を紹介した。
論文 参考訳(メタデータ) (2023-02-16T09:13:53Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - FAIR: Fair Adversarial Instance Re-weighting [0.7829352305480285]
本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
論文 参考訳(メタデータ) (2020-11-15T10:48:56Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Spectrum-Guided Adversarial Disparity Learning [52.293230153385124]
本稿では,新たなエンド・ツー・エンドの知識指向学習フレームワークを提案する。
2つの競合符号化分布を用いてクラス条件付きクラス内不一致を表現し、学習された不一致を識別することで精製された潜伏符号を学習する。
4つのHARベンチマークデータセットに対する実験により,提案手法の頑健性と,最先端の手法による一般化が実証された。
論文 参考訳(メタデータ) (2020-07-14T05:46:27Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - FairALM: Augmented Lagrangian Method for Training Fair Models with
Little Regret [42.66567001275493]
現在、我々がモデルに提示するデータセットのバイアスのため、公正な公開トレーニングが不公平なモデルにつながることは受け入れられている。
そこで本研究では,モデルのトレーニング中に公平性を同時に課すメカニズムについて検討する。
論文 参考訳(メタデータ) (2020-04-03T03:18:53Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。