論文の概要: Marginal loss and exclusion loss for partially supervised multi-organ
segmentation
- arxiv url: http://arxiv.org/abs/2007.03868v1
- Date: Wed, 8 Jul 2020 02:59:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 13:16:11.318118
- Title: Marginal loss and exclusion loss for partially supervised multi-organ
segmentation
- Title(参考訳): 部分教師付きマルチオルガンセグメンテーションにおける限界損失と排除損失
- Authors: Gonglei Shi, Li Xiao, Yang Chen, S. Kevin Zhou
- Abstract要約: このようなデータセットの結合から単一のマルチ組織セグメンテーションネットワークを学習する方法を検討する。
本研究は, (i) 限界損失と (ii) 排除損失の2種類の新規損失関数を提案する。
新たに提案した損失関数を用いることで、余分な計算を導入することなく、最先端のメソッドに顕著な性能改善がもたらされる。
- 参考スコア(独自算出の注目度): 18.12976844880687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Annotating multiple organs in medical images is both costly and
time-consuming; therefore, existing multi-organ datasets with labels are often
low in sample size and mostly partially labeled, that is, a dataset has a few
organs labeled but not all organs. In this paper, we investigate how to learn a
single multi-organ segmentation network from a union of such datasets. To this
end, we propose two types of novel loss function, particularly designed for
this scenario: (i) marginal loss and (ii) exclusion loss. Because the
background label for a partially labeled image is, in fact, a `merged' label of
all unlabelled organs and `true' background (in the sense of full labels), the
probability of this `merged' background label is a marginal probability,
summing the relevant probabilities before merging. This marginal probability
can be plugged into any existing loss function (such as cross entropy loss,
Dice loss, etc.) to form a marginal loss. Leveraging the fact that the organs
are non-overlapping, we propose the exclusion loss to gauge the dissimilarity
between labeled organs and the estimated segmentation of unlabelled organs.
Experiments on a union of five benchmark datasets in multi-organ segmentation
of liver, spleen, left and right kidneys, and pancreas demonstrate that using
our newly proposed loss functions brings a conspicuous performance improvement
for state-of-the-art methods without introducing any extra computation.
- Abstract(参考訳): 医用画像に複数の臓器をアノテートすることは費用も時間もかかるため、ラベル付きの既存の複数臓器データセットはしばしばサンプルサイズが低く、主に部分的にラベル付けされている。
本稿では,そのようなデータセットの結合から単一マルチ組織セグメンテーションネットワークを学習する方法を検討する。
この目的のために,特にこのシナリオ用に設計された2種類の新しい損失関数を提案する。
(一)限界損失、及び
(ii)排他的損失。
部分ラベル付き画像の背景ラベルは、実際には、すべてのラベル付き臓器の「マージ」ラベルと(フルラベルの意味で)「true」背景であるので、この「マージ」背景ラベルの確率は限界確率であり、マージ前の関連する確率を合計する。
この限界確率は、任意の既存の損失関数(例えば、クロスエントロピー損失、ディース損失など)に差し込み、限界損失を形成することができる。
臓器が重複しないという事実を生かして,ラベル付き臓器間の相違性と非ラベル付き臓器の推定セグメンテーションを評価するために,除外損失を提案する。
肝,脾臓,左右腎,膵の多臓器分節化における5つのベンチマークデータセットの結合実験により,新たに提案した損失関数を用いることで,余分な計算を導入することなく,最先端の手法に顕著な性能向上がもたらされることを示した。
関連論文リスト
- Labeled-to-Unlabeled Distribution Alignment for Partially-Supervised Multi-Organ Medical Image Segmentation [30.953837550398884]
部分教師付き多臓器画像セグメンテーションは統合意味セグメンテーションモデルの構築を目的としている。
本稿では,特徴分布を調整し,識別能力を向上するラベル付き非ラベル分布アライメントフレームワークを提案する。
提案手法は,最先端部分教師方式よりもかなりのマージンで性能を向上する。
論文 参考訳(メタデータ) (2024-09-05T03:55:37Z) - Multi-Label Learning with Stronger Consistency Guarantees [30.389055604165222]
本稿では,複数ラベル学習におけるサロゲート損失とアルゴリズムについて詳細に検討し,その差分を$H$-consistency boundsで表す。
本稿では,ラベルに依存しない$H$一貫性境界の利点とラベル相関を考慮に入れた新しい代理損失,多ラベルロジスティック損失を導入する。
我々は、このサロゲート損失の族が、一般的なマルチラベル損失よりも、$H$一貫性境界、すなわちベイズ一貫性から恩恵を受けていることを証明した。
論文 参考訳(メタデータ) (2024-07-18T17:51:02Z) - Robust T-Loss for Medical Image Segmentation [56.524774292536264]
本稿では,医用画像分割のための新しいロバストな損失関数T-Lossを提案する。
提案した損失は、Student-t分布の負のログ類似度に基づいており、データ内の外れ値の処理を効果的に行うことができる。
実験の結果,T-Lossは2つの医療データセットのダイススコアにおいて従来の損失関数よりも優れていた。
論文 参考訳(メタデータ) (2023-06-01T14:49:40Z) - Unbiased Loss Functions for Multilabel Classification with Missing
Labels [2.1549398927094874]
欠落ラベルは、極端なマルチラベル分類(XMC)タスクにおいてユビキタスな現象である。
本稿では,異なるマルチラベルリダクションに対する特異な非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-09-23T10:39:02Z) - Learning from Partially Overlapping Labels: Image Segmentation under
Annotation Shift [68.6874404805223]
腹部臓器分節の文脈におけるラベルの重複から学ぶためのいくつかの方法を提案する。
半教師付きアプローチと適応的クロスエントロピー損失を組み合わせることで、不均一な注釈付きデータをうまく活用できることが判明した。
論文 参考訳(メタデータ) (2021-07-13T09:22:24Z) - On Codomain Separability and Label Inference from (Noisy) Loss Functions [11.780563744330038]
本稿では,任意の(ノイズの多い)損失関数値からラベル推論が可能となる必要かつ十分な条件を検討するために,コドメイン分離性の概念を導入する。
一般的なアクティベーション機能を持つマルチクラスクロスエントロピーや,ブレグマンの発散に基づく損失を含む,多くの一般的な損失関数に対して,任意の雑音レベルに対するラベル推論攻撃を設計可能であることを示す。
論文 参考訳(メタデータ) (2021-07-07T05:29:53Z) - Sample Selection with Uncertainty of Losses for Learning with Noisy
Labels [145.06552420999986]
ノイズの多いラベルで学習する際、サンプル選択アプローチは非常に人気があり、小さなロスデータをトレーニング中に正しくラベル付けされているとみなす。
しかし、ノイズラベルでトレーニングされたモデルに基づいて、損失をオンザフライで発生させるため、大容量のデータはおそらく正しくないが、確実に誤りではない。
本稿では,損失点推定の代わりに間隔推定を採用することにより,損失の不確実性を取り入れる。
論文 参考訳(メタデータ) (2021-06-01T12:53:53Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - Weakly-Supervised Cross-Domain Adaptation for Endoscopic Lesions
Segmentation [79.58311369297635]
異なるデータセットにまたがるトランスファー可能なドメイン不変知識を探索できる,新しい弱い教師付き病巣移動フレームワークを提案する。
wasserstein quantified transferability frameworkは、広い範囲の転送可能なコンテキスト依存性を強調するために開発されている。
新規な自己監督型擬似ラベル生成器は、送信困難かつ転送容易なターゲットサンプルの両方に対して、確実な擬似ピクセルラベルを等しく提供するように設計されている。
論文 参考訳(メタデータ) (2020-12-08T02:26:03Z) - Towards Robust Partially Supervised Multi-Structure Medical Image
Segmentation on Small-Scale Data [123.03252888189546]
データ不足下における部分教師付き学習(PSL)における方法論的ギャップを埋めるために,不確実性下でのビシナルラベル(VLUU)を提案する。
マルチタスク学習とヴィジナルリスク最小化によって動機づけられたVLUUは、ビジナルラベルを生成することによって、部分的に教師付き問題を完全な教師付き問題に変換する。
本研究は,ラベル効率の高い深層学習における新たな研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2020-11-28T16:31:00Z) - Unbiased Loss Functions for Extreme Classification With Missing Labels [1.6011907050002954]
極端なマルチラベル分類(XMC)の目標は、非常に大きなラベルのセットから、関連するラベルの小さなサブセットでインスタンスをタグ付けすることである。
本研究では,ラベルを分解する損失関数の一般定式化のための非バイアス推定器を導出する。
抽出された非バイアス推定器は、極端分類のための最先端アルゴリズムに容易に組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-07-01T04:42:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。