論文の概要: BackMix: Mitigating Shortcut Learning in Echocardiography with Minimal Supervision
- arxiv url: http://arxiv.org/abs/2406.19148v1
- Date: Thu, 27 Jun 2024 13:06:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-28 14:17:52.491223
- Title: BackMix: Mitigating Shortcut Learning in Echocardiography with Minimal Supervision
- Title(参考訳): BackMix:最小限のスーパービジョンによるエコー心電図におけるショートカット学習の軽減
- Authors: Kit Mills Bransby, Arian Beqiri, Woo-Jin Cho Kim, Jorge Oliveira, Agisilaos Chartsias, Alberto Gomez,
- Abstract要約: 本稿では,BackMix という,シンプルで効果的なバックグラウンド拡張手法を提案する。
背景を結果と無関係にすることで、モデルは超音波セクター内のデータに集中することを学ぶ。
提案手法を半教師付き環境で拡張し, セグメンテーションラベルの5%以下で, BackMixの正の効果が維持されていることを確認した。
- 参考スコア(独自算出の注目度): 1.3708815960776262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks can learn spurious correlations that lead to the correct prediction in a validation set, but generalise poorly because the predictions are right for the wrong reason. This undesired learning of naive shortcuts (Clever Hans effect) can happen for example in echocardiogram view classification when background cues (e.g. metadata) are biased towards a class and the model learns to focus on those background features instead of on the image content. We propose a simple, yet effective random background augmentation method called BackMix, which samples random backgrounds from other examples in the training set. By enforcing the background to be uncorrelated with the outcome, the model learns to focus on the data within the ultrasound sector and becomes invariant to the regions outside this. We extend our method in a semi-supervised setting, finding that the positive effects of BackMix are maintained with as few as 5% of segmentation labels. A loss weighting mechanism, wBackMix, is also proposed to increase the contribution of the augmented examples. We validate our method on both in-distribution and out-of-distribution datasets, demonstrating significant improvements in classification accuracy, region focus and generalisability. Our source code is available at: https://github.com/kitbransby/BackMix
- Abstract(参考訳): ニューラルネットワークは、検証セットで正しい予測につながる突発的な相関を学習することができるが、予測が間違った理由のために正しいため、あまり一般化しない。
この望ましくないショートカット(クレバーハン効果)の学習は、例えば、背景手がかり(例えばメタデータ)がクラスに偏り、モデルが画像の内容ではなく背景特徴にフォーカスすることを学ぶときに、エコー心電図ビューの分類において起こりうる。
トレーニングセットの他の例からランダムなバックグラウンドをサンプリングするBackMixという,シンプルで効果的なランダムなバックグラウンド拡張手法を提案する。
背景を結果と無関係にすることで、モデルは超音波セクター内のデータに集中し、外部の領域に不変となる。
提案手法を半教師付き環境で拡張し, セグメンテーションラベルの5%以下で, BackMixの正の効果が維持されていることを確認した。
損失重み付け機構 wBackMix も、拡張例の寄与を高めるために提案されている。
分布内および分布外両方のデータセットに対して本手法の有効性を検証し,分類精度,領域焦点,一般性に有意な改善が認められた。
私たちのソースコードは、https://github.com/kitbransby/BackMix.comで入手可能です。
関連論文リスト
- SUMix: Mixup with Semantic and Uncertain Information [41.99721365685618]
混合データ拡張アプローチは、ディープラーニングの様々なタスクに応用されている。
そこで我々は,SUMix という新しい手法を提案し,混合率と混合試料の不確かさを学習する。
論文 参考訳(メタデータ) (2024-07-10T16:25:26Z) - Enhanced Long-Tailed Recognition with Contrastive CutMix Augmentation [10.208913996525055]
本稿では,長期認識の性能を高めるために,意味的に一貫したラベルを持つ拡張サンプルを構築するContrastive CutMixを提案する。
実験の結果,我々のConCutMixはテールクラスの精度と全体的な性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-07-06T01:31:49Z) - Selective Mixup Helps with Distribution Shifts, But Not (Only) because
of Mixup [26.105340203096596]
本研究では,ペアの非ランダム選択がトレーニング分布に影響を及ぼし,混合とは無関係な手段による一般化が向上することを示す。
選択混合法と再サンプリング法という2つの手法の間に新しい等価性を見出した。
論文 参考訳(メタデータ) (2023-05-26T10:56:22Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - RecursiveMix: Mixed Learning with History [21.865332756486314]
RM(RecursiveMix)は、歴史的入力-予測-ラベル三重項を利用した混合サンプル学習パラダイムである。
ResNet-50に基づいて、RMはCIFAR100で$sim$3.2%、ImageNetで$sim$2.8%の分類精度を無視できない余分な計算/保存コストで改善した。
論文 参考訳(メタデータ) (2022-03-14T03:59:47Z) - ReMix: Towards Image-to-Image Translation with Limited Data [154.71724970593036]
本稿では,この問題に対処するためのデータ拡張手法(ReMix)を提案する。
特徴レベルでのトレーニングサンプルを補間し、サンプル間の知覚的関係に基づく新しいコンテンツ損失を提案します。
提案手法は, 生成のあいまいさを効果的に低減し, コンテンツ保存結果を生成する。
論文 参考訳(メタデータ) (2021-03-31T06:24:10Z) - Background Splitting: Finding Rare Classes in a Sea of Background [55.03789745276442]
我々は,少数の稀なカテゴリの画像分類のための,高精度な深層モデルの訓練という現実的な問題に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
論文 参考訳(メタデータ) (2020-08-28T23:05:15Z) - DivideMix: Learning with Noisy Labels as Semi-supervised Learning [111.03364864022261]
ノイズラベルを学習するためのフレームワークであるDivideMixを提案する。
複数のベンチマークデータセットの実験は、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2020-02-18T06:20:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。