論文の概要: Trust the Unreliability: Inward Backward Dynamic Unreliability Driven Coreset Selection for Medical Image Classification
- arxiv url: http://arxiv.org/abs/2603.17603v1
- Date: Wed, 18 Mar 2026 11:16:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.661829
- Title: Trust the Unreliability: Inward Backward Dynamic Unreliability Driven Coreset Selection for Medical Image Classification
- Title(参考訳): 信頼性の信頼: 医用画像分類のための内向き動的不確実性駆動コアセット選択
- Authors: Yan Liang, Ziyuan Yang, Zhuxin Lei, Mengyu Sun, Yingyu Chen, Yi Zhang,
- Abstract要約: コアセットの選択は計算コストを削減するのに役立つが、その医療データの有効性は本質的に複雑さのために制限されている。
動的不確実性駆動型コアセット選択(DUCS)戦略を提案する。
- 参考スコア(独自算出の注目度): 10.037055301139443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficiently managing and utilizing large-scale medical imaging datasets with limited resources presents significant challenges. While coreset selection helps reduce computational costs, its effectiveness in medical data remains limited due to inherent complexity, such as large intra-class variation and high inter-class similarity. To address this, we revisit the training process and observe that neural networks consistently produce stable confidence predictions and better remember samples near class centers in training. However, concentrating on these samples may complicate the modeling of decision boundaries. Hence, we argue that the more unreliable samples are, in fact, the more informative in helping build the decision boundary. Based on this, we propose the Dynamic Unreliability-Driven Coreset Selection(DUCS) strategy. Specifically, we introduce an inward-backward unreliability assessment perspective: 1) Inward Self-Awareness: The model introspects its behavior by analyzing the evolution of confidence during training, thereby quantifying uncertainty of each sample. 2) Backward Memory Tracking: The model reflects on its training tracking by tracking the frequency of forgetting samples, thus evaluating its retention ability for each sample. Next, we select unreliable samples that exhibit substantial confidence fluctuations and are repeatedly forgotten during training. This selection process ensures that the chosen samples are near the decision boundary, thereby aiding the model in refining the boundary. Extensive experiments on public medical datasets demonstrate our superior performance compared to state-of-the-art(SOTA) methods, particularly at high compression rates.
- Abstract(参考訳): 限られたリソースを持つ大規模医療画像データセットの効率的な管理と利用は、重大な課題である。
コアセットの選択は計算コストの削減に役立つが、その医療データの有効性は、大きなクラス内変異や高いクラス間類似性など、固有の複雑さのために制限されている。
これを解決するために、トレーニングプロセスを再考し、ニューラルネットワークが安定した信頼性予測を一貫して生成し、トレーニング中のクラスセンター付近のサンプルをよりよく記憶する。
しかし、これらのサンプルに集中させることは、決定境界のモデリングを複雑にする可能性がある。
したがって、より信頼性の低いサンプルは、実際、決定境界を構築する上でより有益なものである、と我々は論じる。
そこで我々は,動的不確実性駆動型コアセット選択(DUCS)戦略を提案する。
具体的には、内向きの信頼性評価の視点を導入する。
1) 内向き自己認識: モデルはトレーニング中の信頼の進化を分析し、各サンプルの不確かさを定量化する。
2) 後方記憶追跡: モデルは,サンプルを忘れる頻度を追跡することによって,トレーニング追跡を反映し,各サンプルの保持能力を評価する。
次に,自信の揺らぎを示す信頼できないサンプルを選択し,トレーニング中に繰り返し忘れられる。
この選択プロセスは、選択されたサンプルが決定境界付近にあることを保証する。
公開医療データセットの大規模な実験は、特に高い圧縮速度で、最先端(SOTA)手法と比較して、優れた性能を示した。
関連論文リスト
- Modest-Align: Data-Efficient Alignment for Vision-Language Models [67.48633659305592]
クロスモーダルアライメントモデルは、リソース制約のある環境での運用において、過信と劣化したパフォーマンスに悩まされることが多い。
我々は,ロバスト性と効率性に配慮した軽量アライメントフレームワークであるModest-Alignを提案する。
本手法は,実世界の低リソースシナリオにおけるクロスモーダルアライメントを実現するための,実用的でスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2025-10-24T16:11:10Z) - Data Unlearning Beyond Uniform Forgetting via Diffusion Time and Frequency Selection [5.350009804371616]
データアンラーニングは、トレーニングされたモデルから特定のトレーニングサンプルの影響を、完全なリトレーニングを必要とせずに取り除くことを目的としている。
私たちは、モデルやシナリオによって、時間と頻度で忘れることが不均等に起こると論じます。
トレーニング中の特定の時間周波数範囲に選択的に焦点を合わせることで,審美的品質と低雑音のサンプルが得られる。
論文 参考訳(メタデータ) (2025-10-20T02:00:12Z) - Pseudo-D: Informing Multi-View Uncertainty Estimation with Calibrated Neural Training Dynamics [3.8836478189829164]
1ホットラベルは、層間変動を消し、モデルに過信予測を強制する。
ラベル空間に不確実性をもたらす新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2025-09-15T11:30:12Z) - CALICO: Confident Active Learning with Integrated Calibration [11.978551396144532]
トレーニングプロセス中にサンプル選択に使用される信頼度を自己校正するALフレームワークを提案する。
ラベル付きサンプルが少ないソフトマックス分類器と比較して,分類性能が向上した。
論文 参考訳(メタデータ) (2024-07-02T15:05:19Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Tackling the Incomplete Annotation Issue in Universal Lesion Detection
Task By Exploratory Training [10.627977735890191]
複数の臓器の病変を医用画像上で検出することを目的としているため、ユニバーサル病変検出は臨床実践に非常に有用である。
ディープラーニング手法は有望な結果を示しているが、トレーニングには大量の注釈付きデータを必要とする。
そこで,教師の予測と不完全なアノテーションを組み合わせることで,学生の学習を指導する教師学生検出モデルを提案する。
論文 参考訳(メタデータ) (2023-09-23T08:44:07Z) - Paced-Curriculum Distillation with Prediction and Label Uncertainty for
Image Segmentation [25.20877071896899]
カリキュラム学習では、まず簡単なサンプルをトレーニングし、徐々に困難を増すことが考えられている。
自己ペースト学習では、ペアリング関数はトレーニングの進捗に適応する速度を定義する。
医用画像セグメンテーションのための新しいペースドキュリキュラム蒸留法(PCD)を開発した。
論文 参考訳(メタデータ) (2023-02-02T12:24:14Z) - Towards Robust Visual Question Answering: Making the Most of Biased
Samples via Contrastive Learning [54.61762276179205]
我々は,ビザドサンプルを最大限に活用することで,ロバストなVQAモデルを構築するための新しいコントラスト学習手法 MMBS を提案する。
具体的には、元のトレーニングサンプルからスプリアス相関に関連する情報を排除し、比較学習のための正のサンプルを構築する。
我々は,OODデータセットのVQA-CP v2において,IDデータセットのVQA v2上での堅牢なパフォーマンスを維持しながら,競争性能を達成することで,コントリビューションを検証した。
論文 参考訳(メタデータ) (2022-10-10T11:05:21Z) - Active Learning for Deep Visual Tracking [51.5063680734122]
畳み込みニューラルネットワーク(CNN)は近年,単一目標追跡タスクに成功している。
本稿では,ディープ・ビジュアル・トラッキングのためのアクティブ・ラーニング手法を提案する。
アクティブラーニングの指導のもと、トレーニングされた深層CNNモデルに基づくトラッカーは、ラベリングコストを低減しつつ、競合的なトラッキング性能を達成することができる。
論文 参考訳(メタデータ) (2021-10-17T11:47:56Z) - Contextual Dropout: An Efficient Sample-Dependent Dropout Module [60.63525456640462]
ドロップアウトは、ディープニューラルネットワークのトレーニングプロセスを正規化するシンプルで効果的なモジュールとして実証されています。
単純でスケーラブルなサンプル依存型ドロップアウトモジュールとして,効率的な構造設計によるコンテキスト型ドロップアウトを提案する。
提案手法は,不確実性推定の精度と品質の両面において,ベースライン法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-06T19:30:32Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。