論文の概要: Dice Semimetric Losses: Optimizing the Dice Score with Soft Labels
- arxiv url: http://arxiv.org/abs/2303.16296v1
- Date: Tue, 28 Mar 2023 20:35:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 16:52:29.787432
- Title: Dice Semimetric Losses: Optimizing the Dice Score with Soft Labels
- Title(参考訳): Dice Semimetric Losses: ソフトラベルによるDice Scoreの最適化
- Authors: Zifu Wang, Teodora Popordanoska, Jeroen Bertels, Robin Lemmens,
Matthew B. Blaschko
- Abstract要約: ハードラベルの標準設定ではDice semimetric loss (DML) を導入するが, (ii) ソフトラベルの設定では使用することができる。
一般向けQUBIQ, LiTS, KiTSベンチマークによる実験により, DMLとソフトラベルの相乗効果が確認できた。
- 参考スコア(独自算出の注目度): 18.074747325947904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The soft Dice loss (SDL) has taken a pivotal role in many automated
segmentation pipelines in the medical imaging community. Over the last years,
some reasons behind its superior functioning have been uncovered and further
optimizations have been explored. However, there is currently no implementation
that supports its direct use in settings with soft labels. Hence, a synergy
between the use of SDL and research leveraging the use of soft labels, also in
the context of model calibration, is still missing. In this work, we introduce
Dice semimetric losses (DMLs), which (i) are by design identical to SDL in a
standard setting with hard labels, but (ii) can be used in settings with soft
labels. Our experiments on the public QUBIQ, LiTS and KiTS benchmarks confirm
the potential synergy of DMLs with soft labels (e.g. averaging, label
smoothing, and knowledge distillation) over hard labels (e.g. majority voting
and random selection). As a result, we obtain superior Dice scores and model
calibration, which supports the wider adoption of DMLs in practice. Code is
available at
\href{https://github.com/zifuwanggg/JDTLosses}{https://github.com/zifuwanggg/JDTLosses}.
- Abstract(参考訳): 軟Dice損失(SDL)は、医療画像コミュニティにおける多くの自動セグメンテーションパイプラインにおいて重要な役割を担っている。
ここ数年、その優れた機能を支えるいくつかの理由が明らかにされ、さらなる最適化が検討されている。
しかしながら、ソフトラベルを使った設定での直接使用をサポートする実装は今のところ存在しない。
したがって、SDLの使用とソフトラベルの利用による研究の相乗効果は、モデルキャリブレーションの文脈においても、いまだに欠落している。
本稿では,Dice semimetric loss (DML)を紹介する。
(i) ハードラベルの標準設定でSDLと同一の設計であるが、
(ii)はソフトラベルの設定で使用することができる。
公的なQUBIQ、LiTS、KiTSベンチマークに関する我々の実験は、ハードラベル(多数投票やランダム選択など)に対するソフトラベル(平均化、ラベルの平滑化、知識蒸留など)とのDMLのシナジーの可能性を確認する。
その結果,dmlの普及を支援する優れたdiceスコアとモデルキャリブレーションを得た。
コードは \href{https://github.com/zifuwanggg/jdtlosses}{https://github.com/zifuwanggg/jdtlosses} で入手できる。
関連論文リスト
- Towards Better Performance in Incomplete LDL: Addressing Data Imbalance [48.54894491724677]
我々は,不完全なラベルと不均衡なラベル分布を同時に扱うフレームワークであるtextIncomplete and Im Balance Label Distribution Learning (I(2)LDL)を提案する。
本手法は, ラベル分布行列を, 頻繁なラベルのための低ランク成分と希少なラベルのためのスパース成分に分解し, 頭部と尾部のラベルの構造を効果的に把握する。
論文 参考訳(メタデータ) (2024-10-17T14:12:57Z) - Inaccurate Label Distribution Learning with Dependency Noise [52.08553913094809]
本稿では,依存雑音に基づく不正確なラベル分布学習(DN-ILDL)フレームワークを導入し,ラベル分布学習におけるノイズによる課題に対処する。
本稿では,DN-ILDLがILDL問題に効果的に対処し,既存のLCL法より優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T07:58:07Z) - MixSup: Mixed-grained Supervision for Label-efficient LiDAR-based 3D
Object Detection [59.1417156002086]
MixSupは、大量の安価な粗いラベルと、Mixed-fine Supervisionの限られた数の正確なラベルを同時に活用する、より実用的なパラダイムである。
MixSupは、安価なクラスタアノテーションと10%のボックスアノテーションを使用して、完全な教師付きパフォーマンスの97.31%を達成している。
論文 参考訳(メタデータ) (2024-01-29T17:05:19Z) - Mitigating Shortcuts in Language Models with Soft Label Encoding [39.601442154096986]
近年の研究では、大きな言語モデルは自然言語理解(NLU)タスクのデータに急激な相関に依存することが示されている。
我々は,ソフトラベル(Soft Label)という,シンプルで効果的な脱バイアスフレームワークを提案する。
2つのNLUベンチマークタスクの実験により、SoftLEは分布外一般化を大幅に改善することが示された。
論文 参考訳(メタデータ) (2023-09-17T21:18:02Z) - Learning from Noisy Labels with Decoupled Meta Label Purifier [33.87292143223425]
ディープニューラルネットワークをノイズラベルでトレーニングすることは、DNNが不正確なラベルを容易に記憶できるため、難しい。
本稿では,DMLPと呼ばれる新しい多段ラベル浄化器を提案する。
DMLPはラベル訂正プロセスをラベルなし表現学習と単純なメタラベル精製器に分離する。
論文 参考訳(メタデータ) (2023-02-14T03:39:30Z) - Eliciting and Learning with Soft Labels from Every Annotator [31.10635260890126]
個々のアノテータからソフトラベルを効率よく抽出することに注力する。
ラベルによる学習は,従来の手法と同等のモデル性能を達成できることを実証する。
論文 参考訳(メタデータ) (2022-07-02T12:03:00Z) - Instance-Dependent Partial Label Learning [69.49681837908511]
部分ラベル学習は、典型的には弱教師付き学習問題である。
既存のほとんどのアプローチでは、トレーニングサンプルの間違ったラベルがランダムに候補ラベルとして選択されていると仮定している。
本稿では,各例が実数で構成された潜在ラベル分布と関連していると仮定する。
論文 参考訳(メタデータ) (2021-10-25T12:50:26Z) - Understanding (Generalized) Label Smoothing when Learning with Noisy
Labels [57.37057235894054]
ラベルスムーシング(LS)は、ハードトレーニングラベルと一様分散ソフトラベルの両方の正の重み付け平均を使用する学習パラダイムである。
雑音ラベルを用いた学習において,一般化ラベル平滑化(GLS)の特性について理解する。
論文 参考訳(メタデータ) (2021-06-08T07:32:29Z) - Estimating Instance-dependent Label-noise Transition Matrix using DNNs [66.29979882301265]
ラベルノイズ学習では、遷移行列の推定がホットトピックである。
本稿では,ベイズ最適分布から雑音分布への遷移を直接モデル化する。
この利点を生かして、ディープニューラルネットワークをパラメータ化してベイズラベル遷移行列を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:36:54Z) - Label Confusion Learning to Enhance Text Classification Models [3.0251266104313643]
ラベル混乱モデル(lcm)はラベル間の意味的重複を捉えるためにラベル混乱を学習する。
lcmは、元のホットラベルベクトルを置き換えるより優れたラベル分布を生成することができる。
5つのテキスト分類ベンチマークデータセットの実験により、広く使われているディープラーニング分類モデルに対するLCMの有効性が明らかにされた。
論文 参考訳(メタデータ) (2020-12-09T11:34:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。