論文の概要: Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification
- arxiv url: http://arxiv.org/abs/2203.09860v1
- Date: Fri, 18 Mar 2022 11:02:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-21 15:57:27.681797
- Title: Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification
- Title(参考訳): 偏弱胸部x線分類における疑似バイアスバランス学習
- Authors: Luyang Luo, Dunyuan Xu, Hao Chen, Tien-Tsin Wong, and Pheng-Ann Heng
- Abstract要約: 本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
- 参考スコア(独自算出の注目度): 57.53567756716656
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning models were frequently reported to learn from shortcuts like
dataset biases. As deep learning is playing an increasingly important role in
the modern healthcare system, it is of great need to combat shortcut learning
in medical data as well as develop unbiased and trustworthy models. In this
paper, we study the problem of developing debiased chest X-ray diagnosis models
from the biased training data without knowing exactly the bias labels. We start
with the observations that the imbalance of bias distribution is one of the key
reasons causing shortcut learning, and the dataset biases are preferred by the
model if they were easier to be learned than the intended features. Based on
these observations, we propose a novel algorithm, pseudo bias-balanced
learning, which first captures and predicts per-sample bias labels via
generalized cross entropy loss and then trains a debiased model using pseudo
bias labels and bias-balanced softmax function. To our best knowledge, we are
pioneered in tackling dataset biases in medical images without explicit
labeling on the bias attributes. We constructed several chest X-ray datasets
with various dataset bias situations and demonstrated with extensive
experiments that our proposed method achieved consistent improvements over
other state-of-the-art approaches.
- Abstract(参考訳): ディープラーニングモデルは、データセットバイアスのようなショートカットから学ぶために頻繁に報告された。
深層学習は、現代医療システムにおいてますます重要な役割を担っているため、医療データにおけるショートカット学習と闘い、バイアスのない信頼に値するモデルを開発することは非常に必要である。
本稿では,バイアスラベルを正確に知ることなく,バイアストレーニングデータから胸部x線診断モデルを開発する問題点について検討する。
まず、バイアス分布の不均衡がショートカット学習を引き起こす主要な理由の1つであり、意図した特徴よりも学習しやすい場合、データセットバイアスがモデルによって好まれる、という観察から始める。
そこで本研究では, 一般化されたクロスエントロピー損失を用いて, サンプル毎のバイアスラベルをキャプチャし, 予測し, 擬似バイアスラベルとバイアスバランスソフトマックス関数を用いてデバイアスモデルを訓練するアルゴリズムであるpseudo bias-balanced learningを提案する。
私たちの知る限りでは、偏りの属性を明確にラベル付けすることなく、医療画像のデータセットバイアスに対処する先駆者です。
種々のデータセットバイアスのある胸部X線データセットを複数構築し,提案手法が他の最先端手法よりも一貫した改善を達成できることを実証した。
関連論文リスト
- CosFairNet:A Parameter-Space based Approach for Bias Free Learning [1.9116784879310025]
バイアス付きデータに基づいてトレーニングされたディープニューラルネットワークは、意図しない推論ルールを不注意に学習することが多い。
本稿では,モデルのパラメータ空間内で直接バイアスに対処する新しい手法を提案する。
各種合成および実世界のデータセットにおいて,分類精度の向上と偏りの低減効果を示す。
論文 参考訳(メタデータ) (2024-10-19T13:06:40Z) - Medical Image Debiasing by Learning Adaptive Agreement from a Biased
Council [8.530912655468645]
ディープラーニングは、データセットバイアスによって得られたショートカットを学習する傾向があります。
その重要性にもかかわらず、データセットバイアスに対処する医療画像分類領域では、多くの研究が行われている。
本稿では,バイアスラベルに依存しないバイアス緩和フレームワークであるバイアスド・カウンシル(Ada-ABC)からの学習適応合意を提案する。
論文 参考訳(メタデータ) (2024-01-22T06:29:52Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Targeted Data Augmentation for bias mitigation [0.0]
我々は、TDA(Targeted Data Augmentation)と呼ばれるバイアスに対処するための、新しく効率的なアプローチを導入する。
バイアスを除去する面倒な作業とは異なり、本手法は代わりにバイアスを挿入することを提案し、結果として性能が向上する。
偏見を特定するために,臨床皮膚病変のデータセットと男女の顔のデータセットの2つの多様なデータセットを注釈した。
論文 参考訳(メタデータ) (2023-08-22T12:25:49Z) - Unsupervised Learning of Unbiased Visual Representations [10.871587311621974]
ディープニューラルネットワークは、データセットにバイアスが存在するときに堅牢な表現を学習できないことで知られている。
我々は3つのステップからなる完全に教師なしの脱バイアスフレームワークを提案する。
我々は、非バイアスモデルを得るために最先端の教師付き脱バイアス技術を採用している。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - Intrinsic Bias Identification on Medical Image Datasets [9.054785751150547]
まず、データ固有のバイアス属性を定義し、次いで、医用画像データセットのための新しいバイアス識別フレームワークを提案する。
このフレームワークには、KlotskiNetとBias Discriminant Direction Analysis(bdda)という2つの主要なコンポーネントが含まれている。
3つのデータセットの実験結果から,フレームワークが検出したバイアス特性の有効性が示された。
論文 参考訳(メタデータ) (2022-03-24T06:28:07Z) - Evading the Simplicity Bias: Training a Diverse Set of Models Discovers
Solutions with Superior OOD Generalization [93.8373619657239]
SGDで訓練されたニューラルネットワークは最近、線形予測的特徴に優先的に依存することが示された。
この単純さバイアスは、分布外堅牢性(OOD)の欠如を説明することができる。
単純さのバイアスを軽減し,ood一般化を改善できることを実証する。
論文 参考訳(メタデータ) (2021-05-12T12:12:24Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z) - Towards Robustifying NLI Models Against Lexical Dataset Biases [94.79704960296108]
本稿では、語彙的データセットバイアスに対するモデル強化のための、データレベルとモデルレベルのデバイアス法の両方について検討する。
まず、データ拡張と拡張によってデータセットをデバイアスするが、この方法でモデルバイアスを完全に除去することはできないことを示す。
第2のアプローチでは、バーオブワードのサブモデルを使用して、バイアスを悪用する可能性のある機能をキャプチャし、元のモデルがこれらのバイアス付き機能を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2020-05-10T17:56:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。