論文の概要: Embarrassingly Simple Scribble Supervision for 3D Medical Segmentation
- arxiv url: http://arxiv.org/abs/2403.12834v1
- Date: Tue, 19 Mar 2024 15:41:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-03-20 13:44:06.773368
- Title: Embarrassingly Simple Scribble Supervision for 3D Medical Segmentation
- Title(参考訳): 3Dメディカルセグメンテーションのための恥ずかしいほどシンプルなスクリブル・スーパービジョン
- Authors: Karol Gotkowski, Carsten Lüth, Paul F. Jäger, Sebastian Ziegler, Lars Krämer, Stefan Denner, Shuhan Xiao, Nico Disch, Klaus H. Maier-Hein, Fabian Isensee,
- Abstract要約: この課題の解決策として、スクリブル教師付き学習が登場し、大規模なデータセットを作成する際のアノテーションの労力の削減を約束する。
そこで本研究では,解剖学と病理学の多様さを網羅した7つのデータセットからなるベンチマークを提案する。
nnU-Netを用いた評価の結果,既存の手法の多くは一般化の欠如に悩まされているが,提案手法は一貫して最先端の性能を提供する。
- 参考スコア(独自算出の注目度): 0.8391490466934672
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditionally, segmentation algorithms require dense annotations for training, demanding significant annotation efforts, particularly within the 3D medical imaging field. Scribble-supervised learning emerges as a possible solution to this challenge, promising a reduction in annotation efforts when creating large-scale datasets. Recently, a plethora of methods for optimized learning from scribbles have been proposed, but have so far failed to position scribble annotation as a beneficial alternative. We relate this shortcoming to two major issues: 1) the complex nature of many methods which deeply ties them to the underlying segmentation model, thus preventing a migration to more powerful state-of-the-art models as the field progresses and 2) the lack of a systematic evaluation to validate consistent performance across the broader medical domain, resulting in a lack of trust when applying these methods to new segmentation problems. To address these issues, we propose a comprehensive scribble supervision benchmark consisting of seven datasets covering a diverse set of anatomies and pathologies imaged with varying modalities. We furthermore propose the systematic use of partial losses, i.e. losses that are only computed on annotated voxels. Contrary to most existing methods, these losses can be seamlessly integrated into state-of-the-art segmentation methods, enabling them to learn from scribble annotations while preserving their original loss formulations. Our evaluation using nnU-Net reveals that while most existing methods suffer from a lack of generalization, the proposed approach consistently delivers state-of-the-art performance. Thanks to its simplicity, our approach presents an embarrassingly simple yet effective solution to the challenges of scribble supervision. Source code as well as our extensive scribble benchmarking suite will be made publicly available upon publication.
- Abstract(参考訳): 伝統的に、セグメンテーションアルゴリズムは訓練のために密集したアノテーションを必要とし、特に3D医療画像分野において重要なアノテーションの努力を必要としている。
この課題の解決策として、スクリブル教師付き学習が登場し、大規模なデータセットを作成する際のアノテーションの労力の削減を約束する。
近年,スクリブルからの学習を最適化する手法が数多く提案されているが,スクリブルアノテーションが有効な代替手段として位置づけられていない。
この欠点を2つの大きな問題に関連付けます。
1)基礎となるセグメンテーションモデルと深く結びつく多くの手法の複雑な性質により、フィールドが進行するにつれて、より強力な最先端モデルへの移行が防止される。
2) より広範な医療領域における整合性評価のための体系的評価の欠如は, これらの手法を新たなセグメンテーション問題に適用する際の信頼の欠如を招いた。
これらの課題に対処するために, 多様な解剖・病理を網羅した7つのデータセットからなる総合的なスクリブル監視ベンチマークを提案する。
さらに,注釈付きボクセルでのみ計算される部分的損失の体系的利用を提案する。
既存のほとんどのメソッドとは対照的に、これらの損失は最先端のセグメンテーションメソッドにシームレスに統合することができ、元のロス定式化を保ちながら、スクリブルアノテーションから学ぶことができる。
nnU-Netを用いた評価の結果,既存の手法の多くは一般化の欠如に悩まされているが,提案手法は一貫して最先端の性能を提供する。
その単純さのおかげで、我々のアプローチは、スクリブル監視の課題に対して、恥ずかしいほどシンプルで効果的な解決策を提示します。
ソースコードと広範なスクリブルベンチマークスイートは、公開時に公開されます。
関連論文リスト
- Resource-efficient Automatic Refinement of Segmentations via Weak Supervision from Light Feedback [1.8082075562656847]
SCOREは、トレーニング中の光フィードバックのみを用いてマスク予測を洗練することを学ぶ弱教師付きフレームワークである。
上腕骨CTスキャンにおいてSCOREを実証し、初期予測を大幅に改善し、既存の精錬法と同等の性能を達成する。
論文 参考訳(メタデータ) (2025-11-04T13:53:10Z) - Rethinking Evaluation of Infrared Small Target Detection [105.59753496831739]
本稿では,画素レベルと目標レベルのパフォーマンスを取り入れたハイブリッドレベルのメトリクスを導入し,システム的エラー解析手法を提案し,クロスデータセット評価の重要性を強調した。
標準化されたベンチマークを容易にするオープンソースツールキットがリリースされた。
論文 参考訳(メタデータ) (2025-09-21T02:45:07Z) - RefineSeg: Dual Coarse-to-Fine Learning for Medical Image Segmentation [2.608565452856053]
医用画像の高品質なピクセルレベルのアノテーションは、教師付きセグメンテーションタスクに不可欠である。
粗いレベルのアノテーションに完全に依存する新しい粗いセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-04T19:14:30Z) - BoundarySeg:An Embarrassingly Simple Method To Boost Medical Image Segmentation Performance for Low Data Regimes [2.1387689734506043]
本稿では,既存のアノテーションのみを活用するシンプルな,効率的かつ効率的な医用画像分割手法を提案する。
臓器境界予測を全臓器セグメンテーションの補助タスクとして組み込んだマルチタスクフレームワークであるBoundarySegを提案する。
論文 参考訳(メタデータ) (2025-05-14T22:15:41Z) - SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - Comparative Benchmarking of Failure Detection Methods in Medical Image Segmentation: Unveiling the Role of Confidence Aggregation [0.723226140060364]
本稿では,医療画像セグメンテーションにおける故障検出手法の評価を目的とした総合的なベンチマークフレームワークを提案する。
我々は、現在の障害検出指標の強度と限界を特定し、リスクカバレッジ分析を全体的評価アプローチとして推奨する。
論文 参考訳(メタデータ) (2024-06-05T14:36:33Z) - 3D Medical Image Segmentation with Sparse Annotation via Cross-Teaching
between 3D and 2D Networks [26.29122638813974]
本稿では,3次元ネットワークと2次元ネットワークの相互学習を用いて,スパースアノテーションから頑健に学習できるフレームワークを提案する。
MMWHSデータセットに対する実験結果から,本手法は最先端(SOTA)半教師付きセグメンテーション法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-30T15:26:17Z) - SwIPE: Efficient and Robust Medical Image Segmentation with Implicit Patch Embeddings [12.79344668998054]
正確な局所境界線とグローバルな形状コヒーレンスを実現するために,SwIPE(Segmentation with Implicit Patch Embeddings)を提案する。
その結果,最近の暗黙的アプローチよりもSwIPEは大幅に改善され,パラメータが10倍以上の最先端の離散手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-23T20:55:11Z) - Extraction of volumetric indices from echocardiography: which deep
learning solution for clinical use? [6.144041824426555]
提案した3D nnU-Netは,2D法と繰り返しセグメンテーション法よりも優れていることを示す。
実験の結果、十分なトレーニングデータがあれば、3D nnU-Netは日常的な臨床機器の基準を満たす最初の自動化ツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-03T09:38:52Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - ZScribbleSeg: Zen and the Art of Scribble Supervised Medical Image
Segmentation [16.188681108101196]
弱い教師付きセグメンテーションにのみスクリブルアノテーションを活用することを提案する。
既存のソリューションは主に注釈付き領域でのみ計算された選択的損失を利用する。
空間的関係と形状を事前にエンコードする正規化項を導入する。
我々は、ZScribbleSegと表記される統合フレームワークに、効率的なスクリブル監視を前者と統合する。
論文 参考訳(メタデータ) (2023-01-12T09:00:40Z) - A Survey on Label-efficient Deep Segmentation: Bridging the Gap between
Weak Supervision and Dense Prediction [115.9169213834476]
本稿では,ラベル効率の高いセグメンテーション手法について概説する。
まず,様々な種類の弱いラベルによって提供される監督に従って,これらの手法を整理する分類法を開発する。
次に,既存のラベル効率のセグメンテーション手法を統一的な視点から要約する。
論文 参考訳(メタデータ) (2022-07-04T06:21:01Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - Towards to Robust and Generalized Medical Image Segmentation Framework [17.24628770042803]
本稿では,ロバストな一般化セグメンテーションのための新しい2段階フレームワークを提案する。
特に、教師なしTile-wise AutoEncoder(T-AE)事前学習アーキテクチャは、意味のある表現を学ぶために作成される。
複数の胸部X線データセットに対する肺分画実験を行った。
論文 参考訳(メタデータ) (2021-08-09T05:58:49Z) - Flip Learning: Erase to Segment [65.84901344260277]
弱い教師付きセグメンテーション(WSS)は、時間と面倒な手作業のアノテーションを減らすのに役立ちます。
ボックスアノテーションのみを必要とするFlip Learningという,斬新で汎用的なWSSフレームワークを提案する。
提案手法は,完全教師付き学習と弱教師付き学習のギャップを狭める大きな可能性を示す。
論文 参考訳(メタデータ) (2021-08-02T09:56:10Z) - A Positive/Unlabeled Approach for the Segmentation of Medical Sequences
using Point-Wise Supervision [3.883460584034766]
本稿では,ポイントワイズアノテーションのみを用いて,医用画像のボリュームや動画を効率的に分割する手法を提案する。
提案手法は,ポイントワイドアノテーションを用いて,適切なポジティブ/アンラベル対象関数を用いてディープラーニングモデルを訓練する。
提案手法は,同じ問題に適応した最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-18T09:13:33Z) - Weakly-Supervised Universal Lesion Segmentation with Regional Level Set
Loss [16.80758525711538]
高分解能ネットワーク(HRNet)に基づく新しい弱監督ユニバーサル病変分割法を提案する。
AHRNetはデコーダ、デュアルアテンション、スケールアテンション機構を含む高度な高解像度のディープイメージ機能を提供する。
本手法は,公開大規模deeplesionデータセットとホールドアウトテストセットにおいて,最高の性能を実現する。
論文 参考訳(メタデータ) (2021-05-03T23:33:37Z) - Every Annotation Counts: Multi-label Deep Supervision for Medical Image
Segmentation [85.0078917060652]
この障壁を克服する半弱教師付きセグメンテーションアルゴリズムを提案する。
このアプローチは,深層指導と生徒・教師モデルの新しい定式化に基づいている。
我々の新しいセグメンテーションのトレーニング体制は、完全にラベル付けされ、バウンディングボックスでマークされた画像、単にグローバルラベル、あるいは全くないイメージを柔軟に活用することで、高価なラベルの要件を94.22%削減することができる。
論文 参考訳(メタデータ) (2021-04-27T14:51:19Z) - Towards Robust Partially Supervised Multi-Structure Medical Image
Segmentation on Small-Scale Data [123.03252888189546]
データ不足下における部分教師付き学習(PSL)における方法論的ギャップを埋めるために,不確実性下でのビシナルラベル(VLUU)を提案する。
マルチタスク学習とヴィジナルリスク最小化によって動機づけられたVLUUは、ビジナルラベルを生成することによって、部分的に教師付き問題を完全な教師付き問題に変換する。
本研究は,ラベル効率の高い深層学習における新たな研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2020-11-28T16:31:00Z) - A Weakly-Supervised Semantic Segmentation Approach based on the Centroid
Loss: Application to Quality Control and Inspection [6.101839518775968]
本稿では,新しい損失関数を用いた弱教師付きセマンティックセマンティックセマンティクス手法の提案と評価を行う。
アプローチのパフォーマンスは,2つの業界関連ケーススタディのデータセットに対して評価される。
論文 参考訳(メタデータ) (2020-10-26T09:08:21Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z) - Towards Using Count-level Weak Supervision for Crowd Counting [55.58468947486247]
本稿では,少数の位置レベルのアノテーション(十分に教師された)と大量のカウントレベルのアノテーション(弱教師付き)からモデルを学習する,弱教師付き群集カウントの問題について検討する。
我々は、生成した密度マップの自由を制限するための正規化を構築するために、単純なyet効果のトレーニング戦略、すなわちMultiple Auxiliary Tasks Training (MATT)を考案した。
論文 参考訳(メタデータ) (2020-02-29T02:58:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。