論文の概要: Common-Sense Bias Discovery and Mitigation for Classification Tasks
- arxiv url: http://arxiv.org/abs/2401.13213v2
- Date: Thu, 8 Feb 2024 05:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 18:22:11.024236
- Title: Common-Sense Bias Discovery and Mitigation for Classification Tasks
- Title(参考訳): 共通センスバイアスの発見と分類課題の緩和
- Authors: Miao Zhang, Zee fryer, Ben Colman, Ali Shahriyari, Gaurav Bharaj
- Abstract要約: 画像記述に基づいてデータセットの特徴クラスタを抽出するフレームワークを提案する。
解析された特徴と相関は人間に解釈可能であるので、我々はCommon-Sense Bias Discovery (CSBD) という手法を名づける。
実験の結果,2つのベンチマーク画像データセットに対して,複数の分類タスクに新たなバイアスが生じることがわかった。
- 参考スコア(独自算出の注目度): 16.8259488742528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning model bias can arise from dataset composition: sensitive
features correlated to the learning target disturb the model decision rule and
lead to performance differences along the features. Existing de-biasing work
captures prominent and delicate image features which are traceable in model
latent space, like colors of digits or background of animals. However, using
the latent space is not sufficient to understand all dataset feature
correlations. In this work, we propose a framework to extract feature clusters
in a dataset based on image descriptions, allowing us to capture both subtle
and coarse features of the images. The feature co-occurrence pattern is
formulated and correlation is measured, utilizing a human-in-the-loop for
examination. The analyzed features and correlations are human-interpretable, so
we name the method Common-Sense Bias Discovery (CSBD). Having exposed sensitive
correlations in a dataset, we demonstrate that downstream model bias can be
mitigated by adjusting image sampling weights, without requiring a sensitive
group label supervision. Experiments show that our method discovers novel
biases on multiple classification tasks for two benchmark image datasets, and
the intervention outperforms state-of-the-art unsupervised bias mitigation
methods.
- Abstract(参考訳): 機械学習モデルバイアスは、データセットの構成から生じうる: 学習目標に関連付けられたセンシティブな特徴は、モデル決定ルールを乱し、特徴に沿ったパフォーマンスの違いをもたらす。
既存の非バイアス処理は、数字の色や動物の背景など、モデル潜在空間で追跡可能な顕著で繊細な画像の特徴をキャプチャする。
しかし、潜在空間を使用すると、すべてのデータセットの特徴相関を理解するのに十分ではない。
本研究では,画像記述に基づくデータセット内の特徴クラスタを抽出し,画像の微妙な特徴と粗い特徴の両方をキャプチャするフレームワークを提案する。
特徴共起パターンを定式化し、人間のループを用いて相関を計測する。
解析された特徴と相関は人間の解釈可能であり,その手法をCSBD(Common-Sense Bias Discovery)と呼ぶ。
データセットに敏感な相関を露出させることで,感度の高いグループラベルの監督を必要とせず,画像サンプリング重みを調整することで下流モデルのバイアスを軽減できることを示す。
実験により,2つのベンチマーク画像データセットに対する複数の分類タスクに対する新たなバイアスが発見され,その介入は最先端の非教師なしバイアス軽減手法より優れていることがわかった。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Enhancing Intrinsic Features for Debiasing via Investigating Class-Discerning Common Attributes in Bias-Contrastive Pair [36.221761997349795]
ディープニューラルネットワークは、データセットバイアスの存在下でターゲットクラスと急激な相関を持つバイアス特性に依存している。
本稿では,本質的特徴の領域を示す空間的指示を明示的に提示する手法を提案する。
実験により, 種々のバイアス重大度を有する合成および実世界のデータセットに対して, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2024-04-30T04:13:14Z) - Debiasing Counterfactuals In the Presence of Spurious Correlations [0.98342301244574]
我々は、(i)人気のデバイアス分類器と(ii)対実画像生成の両方を統合した、最初のエンドツーエンドトレーニングフレームワークを紹介する。
以上の結果から, 人口全体にわたる一般化可能なマーカーを学習し, (ii) 急激な相関を無視し, 根底にある疾患の病理に焦点をあてる脱バイアス法が実証された。
論文 参考訳(メタデータ) (2023-08-21T19:01:45Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - DASH: Visual Analytics for Debiasing Image Classification via
User-Driven Synthetic Data Augmentation [27.780618650580923]
画像分類モデルは、訓練データにおいて、入力特徴と出力クラスとの間の無関係な共起に基づいてクラスを予測することをしばしば学習する。
我々は、望ましくない相関を「データバイアス」と呼び、データバイアスを引き起こす視覚的特徴を「バイアス要因」と呼んでいる。
人間の介入なしにバイアスを自動的に識別し緩和することは困難である。
論文 参考訳(メタデータ) (2022-09-14T00:44:41Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Learning to Model and Ignore Dataset Bias with Mixed Capacity Ensembles [66.15398165275926]
本稿では,データセット固有のパターンを自動的に検出・無視する手法を提案する。
我々の方法は、より高い容量モデルでアンサンブルで低容量モデルを訓練する。
視覚的質問応答データセットの10ポイントゲインを含む,すべての設定の改善を示す。
論文 参考訳(メタデータ) (2020-11-07T22:20:03Z) - Out-of-distribution Generalization via Partial Feature Decorrelation [72.96261704851683]
本稿では,特徴分解ネットワークと対象画像分類モデルとを協調的に最適化する,PFDL(Partial Feature Deorrelation Learning)アルゴリズムを提案する。
実世界のデータセットを用いた実験により,OOD画像分類データセットにおけるバックボーンモデルの精度が向上することを示した。
論文 参考訳(メタデータ) (2020-07-30T05:48:48Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。