論文の概要: Understanding Unfairness via Training Concept Influence
- arxiv url: http://arxiv.org/abs/2306.17828v1
- Date: Fri, 30 Jun 2023 17:48:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 11:38:03.690359
- Title: Understanding Unfairness via Training Concept Influence
- Title(参考訳): トレーニング概念の影響による不公平さの理解
- Authors: Yuanshun Yao, Yang Liu
- Abstract要約: モデルの不公平さの原因を知ることは、実践者が自分のデータやアルゴリズムをよりよく理解するのに役立ちます。
私たちは、トレーニングデータのレンズを通してこの問題を調査します。
私たちのフレームワークは、観察された不公平さを理解し、トレーニングデータを修復するのに役立つだけでなく、他の多くのアプリケーションにも役立ちます。
- 参考スコア(独自算出の注目度): 9.863845324829937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowing the causes of a model's unfairness helps practitioners better
understand their data and algorithms. This is an important yet relatively
unexplored task. We look into this problem through the lens of the training
data - one of the major sources of unfairness. We ask the following questions:
how would a model's fairness performance change if, in its training data, some
samples (1) were collected from a different (e.g. demographic) group, (2) were
labeled differently, or (3) some features were changed? In other words, we
quantify the fairness influence of training samples by counterfactually
intervening and changing samples based on predefined concepts, i.e. data
attributes such as features (X), labels (Y), or sensitive attributes (A). To
calculate a training sample's influence on the model's unfairness w.r.t a
concept, we first generate counterfactual samples based on the concept, i.e.
the counterfactual versions of the sample if the concept were changed. We then
calculate the resulting impact on the unfairness, via influence function, if
the counterfactual samples were used in training. Our framework not only helps
practitioners understand the observed unfairness and repair their training
data, but also leads to many other applications, e.g. detecting mislabeling,
fixing imbalanced representations, and detecting fairness-targeted poisoning
attacks.
- Abstract(参考訳): モデルの不公平さの原因を知ることは、実践者がデータやアルゴリズムを理解するのに役立つ。
これは重要かつ比較的未調査の作業である。
私たちは、トレーニングデータのレンズを通してこの問題を調査します。
トレーニングデータでは、(1)異なるグループ(例えば、人口統計)からいくつかのサンプルを収集し、(2)異なるラベルを付けた場合、(3)いくつかの特徴が変更された場合、モデルの公平性のパフォーマンスはどのように変化するのだろうか?
言い換えれば、事前定義された概念、すなわち特徴(X)、ラベル(Y)、機密属性(A)といったデータ属性に基づいて、サンプルを反実的に介入・変更することで、トレーニングサンプルの公平性の影響を定量化する。
モデルの不公平性に対するトレーニングサンプルの影響を計算するために、まず、概念が変更された場合のサンプルの反事実バージョンという概念に基づいて、反事実サンプルを生成する。
そして, 実例を訓練に用いた場合, 影響関数による不公平性への影響を算出した。
我々のフレームワークは、観察された不公平さを理解し、トレーニングデータを修復するのに役立つだけでなく、誤ラベルの検出、不均衡表現の修正、公正な標的となる中毒攻撃の検出など、他の多くの応用にも繋がる。
関連論文リスト
- Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - Understanding Instance-Level Impact of Fairness Constraints [12.866655972682254]
公正な制約が課された場合のトレーニング例の影響について検討する。
重みのあるデータ例のサブセットでのトレーニングは、精度のトレードオフによって公平性違反の低減につながることが分かっています。
論文 参考訳(メタデータ) (2022-06-30T17:31:33Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Leave-one-out Unfairness [17.221751674951562]
これは、モデルのトレーニングデータに1人の人物が含まれたり排除されたりすることで、モデルの個人に対する予測がどれほど変化するかを特徴付ける。
一般化誤差が小さい場合を含め、実データ上でディープモデルがどのように不公平に振る舞うかを特徴付ける。
脱却不公平によって負の影響を受ける可能性のある健全な実践的応用について論じる。
論文 参考訳(メタデータ) (2021-07-21T15:55:49Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Unfairness Discovery and Prevention For Few-Shot Regression [9.95899391250129]
歴史データの識別(あるいは偏見)に敏感な教師付き数発メタラーニングモデルの公平性について検討する。
偏りのあるデータに基づいてトレーニングされた機械学習モデルは、少数グループのユーザに対して不公平な予測を行う傾向がある。
論文 参考訳(メタデータ) (2020-09-23T22:34:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。