論文の概要: On the Cause of Unfairness: A Training Sample Perspective
- arxiv url: http://arxiv.org/abs/2306.17828v2
- Date: Fri, 16 Feb 2024 20:20:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 06:37:06.226595
- Title: On the Cause of Unfairness: A Training Sample Perspective
- Title(参考訳): 不公平の原因について--研修サンプルの視点から
- Authors: Yuanshun Yao, Yang Liu
- Abstract要約: 私たちは、トレーニングデータのレンズを通して問題を調べます。
本研究では、事前定義された概念に基づいて、サンプルを非現実的に変更することで、トレーニングサンプルが不公平性に与える影響を定量化する。
我々のフレームワークは、観察された不公平さを理解し、トレーニングデータを修復することで軽減するだけでなく、他の多くの応用にもつながります。
- 参考スコア(独自算出の注目度): 13.258569961897907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identifying the causes of a model's unfairness is an important yet relatively
unexplored task. We look into this problem through the lens of training data -
the major source of unfairness. We ask the following questions: How would the
unfairness of a model change if its training samples (1) were collected from a
different (e.g. demographic) group, (2) were labeled differently, or (3) whose
features were modified? In other words, we quantify the influence of training
samples on unfairness by counterfactually changing samples based on predefined
concepts, i.e. data attributes such as features, labels, and sensitive
attributes. Our framework not only can help practitioners understand the
observed unfairness and mitigate it by repairing their training data, but also
leads to many other applications, e.g. detecting mislabeling, fixing imbalanced
representations, and detecting fairness-targeted poisoning attacks.
- Abstract(参考訳): モデルの不公平性の原因を特定することは重要かつ比較的未解決なタスクである。
我々は、不公平な主要な情報源であるトレーニングデータのレンズを通してこの問題を考察する。
トレーニングサンプル(1)を異なる(人口統計学的)グループから収集した場合、(2)異なるラベルが付けられた場合、(3)特徴が修正された場合、モデル変更の不公平さはどのようなものか?
言い換えれば、事前定義された概念、すなわち特徴、ラベル、センシティブ属性などのデータ属性に基づいてサンプルを反実的に変更することで、トレーニングサンプルが不公平性に与える影響を定量化する。
我々のフレームワークは、観察された不公平さを理解し、トレーニングデータを修復することで軽減するだけでなく、誤ラベルの検出、不均衡表現の修正、公正な標的となる毒攻撃の検出など、他の多くの応用にも繋がる。
関連論文リスト
- Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - Understanding Instance-Level Impact of Fairness Constraints [12.866655972682254]
公正な制約が課された場合のトレーニング例の影響について検討する。
重みのあるデータ例のサブセットでのトレーニングは、精度のトレードオフによって公平性違反の低減につながることが分かっています。
論文 参考訳(メタデータ) (2022-06-30T17:31:33Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Leave-one-out Unfairness [17.221751674951562]
これは、モデルのトレーニングデータに1人の人物が含まれたり排除されたりすることで、モデルの個人に対する予測がどれほど変化するかを特徴付ける。
一般化誤差が小さい場合を含め、実データ上でディープモデルがどのように不公平に振る舞うかを特徴付ける。
脱却不公平によって負の影響を受ける可能性のある健全な実践的応用について論じる。
論文 参考訳(メタデータ) (2021-07-21T15:55:49Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Unfairness Discovery and Prevention For Few-Shot Regression [9.95899391250129]
歴史データの識別(あるいは偏見)に敏感な教師付き数発メタラーニングモデルの公平性について検討する。
偏りのあるデータに基づいてトレーニングされた機械学習モデルは、少数グループのユーザに対して不公平な予測を行う傾向がある。
論文 参考訳(メタデータ) (2020-09-23T22:34:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。