論文の概要: Debiasing Skin Lesion Datasets and Models? Not So Fast
- arxiv url: http://arxiv.org/abs/2004.11457v1
- Date: Thu, 23 Apr 2020 21:07:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 09:55:45.436189
- Title: Debiasing Skin Lesion Datasets and Models? Not So Fast
- Title(参考訳): 皮膚病変データセットとモデル
そんなに速くない
- Authors: Alceu Bissoto, Eduardo Valle, Sandra Avila
- Abstract要約: データリスク学習のバイアスから学んだモデルは、同じデータから。
モデルが現実世界の状況では見つからない急激な相関関係を学習すると、医療上の決定などの重要なタスクへの展開は破滅的なものになる。
将来有望な研究を示唆する興味深い結果にもかかわらず、現在の脱バイアス法は、スキン・レジオンモデルのバイアス問題を解決する準備ができていないことが判明した。
- 参考スコア(独自算出の注目度): 17.668005682385175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data-driven models are now deployed in a plethora of real-world applications
- including automated diagnosis - but models learned from data risk learning
biases from that same data. When models learn spurious correlations not found
in real-world situations, their deployment for critical tasks, such as medical
decisions, can be catastrophic. In this work we address this issue for
skin-lesion classification models, with two objectives: finding out what are
the spurious correlations exploited by biased networks, and debiasing the
models by removing such spurious correlations from them. We perform a
systematic integrated analysis of 7 visual artifacts (which are possible
sources of biases exploitable by networks), employ a state-of-the-art technique
to prevent the models from learning spurious correlations, and propose datasets
to test models for the presence of bias. We find out that, despite interesting
results that point to promising future research, current debiasing methods are
not ready to solve the bias issue for skin-lesion models.
- Abstract(参考訳): データ駆動モデルは現在、自動診断を含む多くの現実世界のアプリケーションにデプロイされていますが、同じデータからデータリスク学習バイアスから学んだモデルです。
モデルが現実世界の状況では見つからない急激な相関関係を学習すると、医療上の決定などの重要なタスクへの展開は破滅的なものになる。
本研究は, 皮膚-歯列分類モデルにおいて, 偏りのあるネットワークが生み出す素因的相関関係の発見と, それらの素因的相関関係の除去によるモデル劣化という2つの目的に対処する。
本研究では,7つの視覚アーチファクト(ネットワークによって悪用されるバイアスの原因となる可能性のある)の体系的統合分析を行い,モデルがスプリアス相関を学習することを防止し,バイアスの存在をモデルでテストするためのデータセットを提案する。
将来有望な研究を示唆する興味深い結果にもかかわらず、現在の脱バイアス法は、スキンレジオンモデルのバイアス問題を解決する準備ができていない。
関連論文リスト
- Looking at Model Debiasing through the Lens of Anomaly Detection [11.113718994341733]
ディープニューラルネットワークはデータのバイアスに敏感である。
本稿では,異常検出に基づく新しいバイアス同定手法を提案する。
合成および実際のベンチマークデータセット上で、最先端のパフォーマンスに到達する。
論文 参考訳(メタデータ) (2024-07-24T17:30:21Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Fighting Bias with Bias: Promoting Model Robustness by Amplifying
Dataset Biases [5.997909991352044]
最近の研究は、トレーニングセットからバイアスのあるサンプルをフィルタリングすることで、頑健でバイアスのないモデルを開発することを試みた。
このようなフィルタリングは、バイアスを克服するモデルの真の能力を曖昧にする可能性がある、と私たちは主張する。
バイアス増幅トレーニングセットとバイアス防止テストセットで定義された評価フレームワークを導入する。
論文 参考訳(メタデータ) (2023-05-30T10:10:42Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - On the Efficacy of Adversarial Data Collection for Question Answering:
Results from a Large-Scale Randomized Study [65.17429512679695]
逆データ収集(ADC)では、人間の労働力がモデルとリアルタイムで対話し、誤った予測を誘発する例を作成しようとする。
ADCの直感的な魅力にも拘わらず、敵対的データセットのトレーニングがより堅牢なモデルを生成するかどうかは不明だ。
論文 参考訳(メタデータ) (2021-06-02T00:48:33Z) - Hidden Biases in Unreliable News Detection Datasets [60.71991809782698]
データ収集中の選択バイアスがデータセットの望ましくないアーティファクトにつながることを示す。
クリーンスプリットでテストされたすべてのモデルに対して,列車/テストソースの重なりが無く,精度が大幅に低下した(>10%)。
将来的なデータセット生成には、困難/バイアスプローブとしての単純なモデルと、クリーンな非重複サイトと日付分割を使用する将来のモデル開発が含まれることを提案する。
論文 参考訳(メタデータ) (2021-04-20T17:16:41Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。