論文の概要: Towards Learning an Unbiased Classifier from Biased Data via Conditional
Adversarial Debiasing
- arxiv url: http://arxiv.org/abs/2103.06179v1
- Date: Wed, 10 Mar 2021 16:50:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 15:06:57.456854
- Title: Towards Learning an Unbiased Classifier from Biased Data via Conditional
Adversarial Debiasing
- Title(参考訳): 条件付きadversarial debiasingによるバイアスデータからの非バイアス分類法学習に向けて
- Authors: Christian Reimers and Paul Bodesheim and Jakob Runge and Joachim
Denzler
- Abstract要約: 本稿では,訓練画像のラベルに急激に結びついている特徴に対処する,新しい逆脱バイアス法を提案する。
我々は、上記の偏見に対する既存の手法よりも、我々のアプローチが優れているという数学的証明によって論じる。
実験の結果,本手法は猫や犬の実世界画像を用いたベンチマークデータセットにおいて,最先端技術よりも優れた性能を示すことがわかった。
- 参考スコア(独自算出の注目度): 17.113618920885187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bias in classifiers is a severe issue of modern deep learning methods,
especially for their application in safety- and security-critical areas. Often,
the bias of a classifier is a direct consequence of a bias in the training
dataset, frequently caused by the co-occurrence of relevant features and
irrelevant ones. To mitigate this issue, we require learning algorithms that
prevent the propagation of bias from the dataset into the classifier. We
present a novel adversarial debiasing method, which addresses a feature that is
spuriously connected to the labels of training images but statistically
independent of the labels for test images. Thus, the automatic identification
of relevant features during training is perturbed by irrelevant features. This
is the case in a wide range of bias-related problems for many computer vision
tasks, such as automatic skin cancer detection or driver assistance. We argue
by a mathematical proof that our approach is superior to existing techniques
for the abovementioned bias. Our experiments show that our approach performs
better than state-of-the-art techniques on a well-known benchmark dataset with
real-world images of cats and dogs.
- Abstract(参考訳): 分類器のバイアスは、特に安全およびセキュリティクリティカルな分野における応用において、現代のディープラーニング手法の深刻な問題である。
分類器のバイアスはトレーニングデータセットのバイアスの直接的な結果であり、しばしば関連する特徴と無関係な特徴の共起によって引き起こされる。
この問題を解決するには、データセットから分類器へのバイアスの伝播を防ぐ学習アルゴリズムが必要です。
本稿では,訓練画像のラベルに急激な結びつきを持つが,検査画像のラベルとは統計的に独立な特徴に対処する,新たな逆偏り除去法を提案する。
したがって、トレーニング中に関連する機能の自動識別は、無関係な特徴によって乱される。
これは、皮膚がんの自動検出や運転支援など、多くのコンピュータビジョンタスクにおける幅広いバイアス関連の問題の場合である。
我々は、上記の偏見に対する既存の手法よりも、我々のアプローチが優れているという数学的証明によって論じる。
実験の結果,本手法は猫や犬の実世界画像を用いたベンチマークデータセットにおいて,最先端技術よりも優れた性能を示すことがわかった。
関連論文リスト
- ALBAR: Adversarial Learning approach to mitigate Biases in Action Recognition [52.537021302246664]
行動認識モデルは、しばしば背景バイアス(背景の手がかりに基づく行動の推測)と前景バイアス(主題の外観に依存する)に悩まされる。
本稿では,前景や背景のバイアスを,バイアス特性の専門知識を必要とせずに軽減する,新たな対人訓練手法であるALBARを提案する。
我々は,提案手法を確立された背景および前景バイアスプロトコル上で評価し,新しい最先端技術を設定し,HMDB51上で12%以上のデバイアス性能を向上した。
論文 参考訳(メタデータ) (2025-01-31T20:47:06Z) - DCAST: Diverse Class-Aware Self-Training Mitigates Selection Bias for Fairer Learning [0.0]
敏感な特徴に代表されないバイアスは 識別が困難で 診断されないのが普通です
未確認バイアスを緩和し、緩和方法を評価するための戦略は不可欠であるが、未調査のままである。
本稿では,クラス固有の偏見を意識したモデル非依存的緩和手法であるDiverse Class-Aware Self-Training (DCAST)を紹介した。
論文 参考訳(メタデータ) (2024-09-30T09:26:19Z) - Looking at Model Debiasing through the Lens of Anomaly Detection [11.113718994341733]
ディープニューラルネットワークはデータのバイアスに敏感である。
本研究は,偏りと偏りの一致したサンプルを正確に予測することの重要性を示す。
本稿では,異常検出に基づく新しいバイアス同定手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T17:30:21Z) - Language-guided Detection and Mitigation of Unknown Dataset Bias [23.299264313976213]
本稿では,キャプションの部分的発生に基づく事前知識のないキーワードとして潜在的なバイアスを識別する枠組みを提案する。
我々のフレームワークは、事前知識のない既存のメソッドよりも優れているだけでなく、事前知識を前提としたメソッドにさえ匹敵する。
論文 参考訳(メタデータ) (2024-06-05T03:11:33Z) - Mitigating Bias Using Model-Agnostic Data Attribution [2.9868610316099335]
機械学習モデルにおけるバイアスの緩和は、公平性と公平性を保証するための重要な取り組みである。
本稿では, 画素画像の属性を利用して, バイアス属性を含む画像の領域を特定し, 正規化することで, バイアスに対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-08T13:00:56Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - Learning Debiased Classifier with Biased Committee [30.417623580157834]
ニューラルネットワークは、トレーニングデータの大部分で示されるクラスと潜在属性の急激な相関に偏りがちである。
そこで本研究では,突発性属性ラベルを持たない脱バイアス分類器を訓練するための新しい手法を提案する。
実世界の5つのデータセットにおいて、我々の手法は、私たちのような刺激的な属性ラベルを使わずに先行技術より優れており、時にはバイアスラベルに依存するものよりも優れています。
論文 参考訳(メタデータ) (2022-06-22T04:50:28Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。