論文の概要: The Power of Certainty: How Confident Models Lead to Better Segmentation
- arxiv url: http://arxiv.org/abs/2507.10490v1
- Date: Mon, 14 Jul 2025 17:12:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:25.569596
- Title: The Power of Certainty: How Confident Models Lead to Better Segmentation
- Title(参考訳): 確信の力:信頼のモデルはどのようにセグメンテーションを改善するか
- Authors: Tugberk Erol, Tuba Caglikantar, Duygu Sarikaya,
- Abstract要約: 本稿では,トレーニング中の過去のデータストレージのみを活用することにより,最先端モデルよりも優れた信頼性に基づく自己蒸留手法を提案する。
本手法は,複数の臨床センターから収集したデータセットを網羅的に一般化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models have been proposed for automatic polyp detection and precise segmentation of polyps during colonoscopy procedures. Although these state-of-the-art models achieve high performance, they often require a large number of parameters. Their complexity can make them prone to overfitting, particularly when trained on biased datasets, and can result in poor generalization across diverse datasets. Knowledge distillation and self-distillation are proposed as promising strategies to mitigate the limitations of large, over-parameterized models. These approaches, however, are resource-intensive, often requiring multiple models and significant memory during training. We propose a confidence-based self-distillation approach that outperforms state-of-the-art models by utilizing only previous iteration data storage during training, without requiring extra computation or memory usage during testing. Our approach calculates the loss between the previous and current iterations within a batch using a dynamic confidence coefficient. To evaluate the effectiveness of our approach, we conduct comprehensive experiments on the task of polyp segmentation. Our approach outperforms state-of-the-art models and generalizes well across datasets collected from multiple clinical centers. The code will be released to the public once the paper is accepted.
- Abstract(参考訳): 大腸内視鏡におけるポリープの自動検出と精密セグメンテーションのための深層学習モデルが提案されている。
これらの最先端モデルは高い性能を達成するが、しばしば多くのパラメータを必要とする。
それらの複雑さは、特にバイアス付きデータセットでトレーニングされた場合、過度に適合する傾向があり、さまざまなデータセット間の一般化が不十分になる可能性がある。
知識蒸留と自己蒸留は、大規模で過度にパラメータ化されたモデルの限界を緩和する有望な戦略として提案されている。
しかしながら、これらのアプローチはリソース集約的であり、トレーニング中に複数のモデルと重要なメモリを必要とすることが多い。
本稿では,テスト中に余分な計算やメモリ使用を必要とせず,トレーニング中の過去の反復データストレージのみを利用することで,最先端モデルよりも優れた信頼性に基づく自己蒸留手法を提案する。
提案手法は, 動的信頼係数を用いて, バッチ内の前回の繰り返しと現在の反復の間の損失を算出する。
提案手法の有効性を評価するため,ポリプセグメンテーションの課題に関する総合的な実験を行った。
われわれのアプローチは最先端のモデルより優れ、複数の臨床センターから収集したデータセットをうまく一般化する。
論文が受理されたら、コードは一般公開される。
関連論文リスト
- SPaRFT: Self-Paced Reinforcement Fine-Tuning for Large Language Models [51.74498855100541]
大規模言語モデル(LLM)は、強化学習(RL)による微調整時に強い推論能力を示す。
トレーニング対象のモデルの性能に基づいて,効率的な学習を可能にする自己評価学習フレームワークである textbfSPaRFT を提案する。
論文 参考訳(メタデータ) (2025-08-07T03:50:48Z) - Modeling of AUV Dynamics with Limited Resources: Efficient Online Learning Using Uncertainty [9.176056742068814]
本研究では,記憶容量の制約によるオンライン学習におけるリハーサルのためのデータポイントの選択における不確実性の利用について検討する。
本稿では, 特定の閾値以下で不確実なサンプルを除外するThreshold法, 保存点間の不確実性を最大化するために設計されたGreedy法, 以前の2つのアプローチを組み合わせたThreshold-Greedyの3つの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-06T18:48:55Z) - Weakly supervised deep learning model with size constraint for prostate cancer detection in multiparametric MRI and generalization to unseen domains [0.90668179713299]
本モデルでは, 完全教師付きベースラインモデルにより, オンパー性能が向上することを示す。
また、未確認データドメインでテストした場合、完全に教師付きモデルと弱い教師付きモデルの両方のパフォーマンス低下も観察する。
論文 参考訳(メタデータ) (2024-11-04T12:24:33Z) - Test-Time Adaptation for Combating Missing Modalities in Egocentric Videos [92.38662956154256]
現実のアプリケーションは、プライバシの懸念、効率性の必要性、ハードウェアの問題により、不完全なモダリティを伴う問題に直面することが多い。
再トレーニングを必要とせずに,テスト時にこの問題に対処する新しい手法を提案する。
MiDlは、欠落したモダリティをテスト時にのみ扱う、自己管理型のオンラインソリューションとしては初めてのものだ。
論文 参考訳(メタデータ) (2024-04-23T16:01:33Z) - Deep Ensembles Meets Quantile Regression: Uncertainty-aware Imputation for Time Series [45.76310830281876]
量子回帰に基づくタスクネットワークのアンサンブルを用いて不確実性を推定する新しい手法であるQuantile Sub-Ensemblesを提案する。
提案手法は,高い損失率に頑健な高精度な計算法を生成するだけでなく,非生成モデルの高速な学習により,計算効率も向上する。
論文 参考訳(メタデータ) (2023-12-03T05:52:30Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Stabilizing Subject Transfer in EEG Classification with Divergence
Estimation [17.924276728038304]
脳波分類タスクを記述するためのグラフィカルモデルをいくつか提案する。
理想的な訓練シナリオにおいて真であるべき統計的関係を同定する。
我々は、これらの関係を2段階で強制する正規化罰則を設計する。
論文 参考訳(メタデータ) (2023-10-12T23:06:52Z) - Towards Better Certified Segmentation via Diffusion Models [62.21617614504225]
セグメンテーションモデルは敵の摂動に弱いため、医療や自動運転といった重要な意思決定システムでの使用を妨げます。
近年,理論的保証を得るためにガウス雑音を入力に加えることにより,セグメント化予測のランダム化が提案されている。
本稿では,ランダムな平滑化と拡散モデルを組み合わせたセグメンテーション予測の問題に対処する。
論文 参考訳(メタデータ) (2023-06-16T16:30:39Z) - Multi-Dataset Co-Training with Sharpness-Aware Optimization for Audio
Anti-spoofing [26.330910804689843]
State-of-the-art spoofing countermeasure(CM)モデルは特定のデータセットでよく機能するが、異なるデータセットで評価すると一般化が欠如する。
我々は,大規模な事前学習モデルと競合する,コンパクトだが十分に一般化されたCMモデルの開発を目指している。
論文 参考訳(メタデータ) (2023-05-31T15:37:48Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。