論文の概要: Does Data Repair Lead to Fair Models? Curating Contextually Fair Data To
Reduce Model Bias
- arxiv url: http://arxiv.org/abs/2110.10389v1
- Date: Wed, 20 Oct 2021 06:00:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 16:06:21.795187
- Title: Does Data Repair Lead to Fair Models? Curating Contextually Fair Data To
Reduce Model Bias
- Title(参考訳): データ修復は公正なモデルにつながるか?
文脈的に公正なデータをキュレートしてモデルバイアスを減らす
- Authors: Sharat Agarwal, Sumanyu Muku, Saket Anand, Chetan Arora
- Abstract要約: コンテキスト情報は、より優れた表現を学び、精度を向上させるために、ディープニューラルネットワーク(DNN)にとって貴重なキューである。
COCOでは、多くの対象カテゴリーは、男性よりも男性の方がはるかに高い共起性を持ち、男性に有利なDNNの予測を偏見を与える可能性がある。
本研究では, 変動係数を用いたデータ修復アルゴリズムを導入し, 保護されたクラスに対して, 公平かつ文脈的にバランスの取れたデータをキュレートする。
- 参考スコア(独自算出の注目度): 10.639605996067534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contextual information is a valuable cue for Deep Neural Networks (DNNs) to
learn better representations and improve accuracy. However, co-occurrence bias
in the training dataset may hamper a DNN model's generalizability to unseen
scenarios in the real world. For example, in COCO, many object categories have
a much higher co-occurrence with men compared to women, which can bias a DNN's
prediction in favor of men. Recent works have focused on task-specific training
strategies to handle bias in such scenarios, but fixing the available data is
often ignored. In this paper, we propose a novel and more generic solution to
address the contextual bias in the datasets by selecting a subset of the
samples, which is fair in terms of the co-occurrence with various classes for a
protected attribute. We introduce a data repair algorithm using the coefficient
of variation, which can curate fair and contextually balanced data for a
protected class(es). This helps in training a fair model irrespective of the
task, architecture or training methodology. Our proposed solution is simple,
effective, and can even be used in an active learning setting where the data
labels are not present or being generated incrementally. We demonstrate the
effectiveness of our algorithm for the task of object detection and multi-label
image classification across different datasets. Through a series of
experiments, we validate that curating contextually fair data helps make model
predictions fair by balancing the true positive rate for the protected class
across groups without compromising on the model's overall performance.
- Abstract(参考訳): コンテキスト情報は、より優れた表現を学び、精度を向上させるために、ディープニューラルネットワーク(DNN)にとって貴重なキューである。
しかし、トレーニングデータセットの共起バイアスは、DNNモデルの現実のシナリオに対する一般化性を阻害する可能性がある。
例えば、COCOでは、多くの対象カテゴリーは、男性よりも男性の方がはるかに高い共起性を持ち、DNNの予測に偏りがある。
最近の研究は、このようなシナリオにおけるバイアスに対処するタスク固有のトレーニング戦略にフォーカスしているが、利用可能なデータの修正はしばしば無視される。
本稿では,保護属性に対する様々なクラスとの共起という観点から,サンプルのサブセットを選択することで,データセットの文脈バイアスに対処する新しい汎用的なソリューションを提案する。
本稿では,保護されたクラス(es)に対して公平かつ文脈的にバランスのとれたデータをキュレートできる変動係数を用いたデータ修復アルゴリズムを提案する。
これはタスクやアーキテクチャ、トレーニング方法論に関係なく、公正なモデルをトレーニングするのに役立ちます。
提案手法は単純で効果的であり,データラベルが存在しない,あるいは漸進的に生成されない,アクティブな学習環境でも使用できる。
提案手法は,異なるデータセットにまたがる物体検出とマルチラベル画像分類のタスクに有効であることを示す。
一連の実験を通じて,モデル全体の性能を損なうことなく,保護されたクラスに対する真の陽性率のバランスをとることにより,文脈的に公平なデータのキュレーションがモデル予測の公正化に役立つことを検証した。
関連論文リスト
- Model Debiasing by Learnable Data Augmentation [19.625915578646758]
本稿では,トレーニングを正規化可能なデータ拡張戦略を備えた,新しい2段階学習パイプラインを提案する。
合成および現実的なバイアス付きデータセットの実験は、最先端の分類精度を示し、競合する手法より優れている。
論文 参考訳(メタデータ) (2024-08-09T09:19:59Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Dataset Bias Mitigation in Multiple-Choice Visual Question Answering and
Beyond [93.96982273042296]
視覚言語(VL)理解タスクは、複数の質問を通じて複雑な視覚シーンのモデルによる理解を評価する。
我々は、モデルが様々なVLタスクを適切に理解することなく正しく解決するために、ショートカットとして活用できる2つのデータセットバイアスを特定した。
本稿では,ADS(Adversarial Data Synthesis)を用いて,合成学習データと偏り評価データを生成する。
次に、サンプル内微分に着目して、合成したトレーニングデータ、特に対物データを利用するモデルを支援するために、サンプル内対物訓練(ICT)を導入する。
論文 参考訳(メタデータ) (2023-10-23T08:09:42Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Deep Learning on a Healthy Data Diet: Finding Important Examples for
Fairness [15.210232622716129]
データ駆動予測ソリューションは、主に商用アプリケーションで使われているが、バイアスやステレオタイプに悩まされる傾向がある。
データ拡張は、トレーニングデータセットに反実例を追加することで、性別バイアスを低減する。
拡張データセットのいくつかの例は、公平性には重要でも有害でもないことを示します。
論文 参考訳(メタデータ) (2022-11-20T22:42:30Z) - Unbiased Supervised Contrastive Learning [10.728852691100338]
本研究では,バイアスに頑健な表現を学習する問題に取り組む。
まず、偏りのあるデータを扱う際に、最近の対照的な損失がなぜ失敗するのかを明らかにするための、マージンに基づく理論的枠組みを提案する。
教師付きコントラスト損失(epsilon-SupInfoNCE)を新たに定式化し,正試料と負試料の最小距離をより正確に制御する。
理論的な枠組みのおかげで、極めて偏りのあるデータでもうまく機能する新しい偏りのある正規化損失であるFairKLも提案する。
論文 参考訳(メタデータ) (2022-11-10T13:44:57Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Distraction is All You Need for Fairness [0.0]
本稿では,Distractionモジュールと呼ばれる深層学習モデルの学習戦略を提案する。
この方法は、分類結果に影響を与えるバイアスを制御するのに有効であることが理論的に証明できる。
UCIアダルトおよびヘリテージヘルスデータセットを用いて,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-03-15T01:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。