論文の概要: A survey on shape-constraint deep learning for medical image
segmentation
- arxiv url: http://arxiv.org/abs/2101.07721v1
- Date: Tue, 19 Jan 2021 16:52:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 14:09:42.899650
- Title: A survey on shape-constraint deep learning for medical image
segmentation
- Title(参考訳): 医用画像分割のための形状制約深層学習に関する調査
- Authors: Simon Bohlender, Ilkay Oksuz, Anirban Mukhopadhyay
- Abstract要約: 畳み込みニューラルネットワークとその多くのバリエーションは、ディープラーニングベースの医療画像セグメンテーションの現代の風景を完全に変えました。
これらの手法のピクセルレベルの分類と回帰に対する過度の依存は、問題として早期に特定されている。
セグメンテーション結果が解剖学的に一貫性があることを確認するために、マルコフ/条件付きランダムフィールドに基づくアプローチは、統計的シェイプモデルがますます普及しています。
- 参考スコア(独自算出の注目度): 0.46023882211671957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since the advent of U-Net, fully convolutional deep neural networks and its
many variants have completely changed the modern landscape of deep learning
based medical image segmentation. However, the over dependence of these methods
on pixel level classification and regression has been identified early on as a
problem. Especially when trained on medical databases with sparse available
annotation, these methods are prone to generate segmentation artifacts such as
fragmented structures, topological inconsistencies and islands of pixel. These
artefacts are especially problematic in medical imaging since segmentation is
almost always a pre-processing step for some downstream evaluation. The range
of possible downstream evaluations is rather big, for example surgical
planning, visualization, shape analysis, prognosis, treatment planning etc.
However, one common thread across all these downstream tasks is the demand of
anatomical consistency. To ensure the segmentation result is anatomically
consistent, approaches based on Markov/ Conditional Random Fields, Statistical
Shape Models are becoming increasingly popular over the past 5 years. In this
review paper, a broad overview of recent literature on bringing anatomical
constraints for medical image segmentation is given, the shortcomings and
opportunities of the proposed methods are thoroughly discussed and potential
future work is elaborated. We review the most relevant papers published until
the submission date. For quick access, important details such as the underlying
method, datasets and performance are tabulated.
- Abstract(参考訳): U-Netの出現以来、完全な畳み込みディープニューラルネットワークとその多くの変種は、ディープラーニングベースの医療画像セグメンテーションの現代的景観を完全に変えてきた。
しかし,これらの手法の画素レベルの分類や回帰への過度な依存は問題として早期に確認されている。
特に、少ないアノテーションで医学データベースでトレーニングする場合、これらの手法は断片化された構造、位相的不整合、ピクセルの島などの分割アーティファクトを生成する傾向にある。
これらのアーティファクトは、セグメンテーションがほとんど常に下流評価の前処理であるので、医療画像において特に問題となる。
下流評価の可能性の範囲は、手術計画、可視化、形状分析、予後、治療計画など、かなり大きい。
しかしながら、これらすべての下流タスクで共通するスレッドは、解剖学的一貫性の要求である。
セグメンテーション結果が解剖学的に一貫したものであることを保証するため、マルコフ/条件ランダムフィールドに基づくアプローチでは、統計形状モデルが過去5年間で人気が高まっている。
本稿では, 医用画像セグメンテーションの解剖学的制約に関する最近の文献の概要を概説し, 提案手法の欠点と可能性について概説し, 今後の課題について概説する。
我々は提出日まで最も関係のある論文をレビューする。
クイックアクセスには、基礎となるメソッドやデータセット、パフォーマンスといった重要な詳細が集計される。
関連論文リスト
- Anatomy-guided Pathology Segmentation [56.883822515800205]
本研究では, 解剖学的特徴と病理学的情報を組み合わせた汎用的セグメンテーションモデルを構築し, 病理学的特徴のセグメンテーション精度を高めることを目的とする。
我々の解剖学・病理学交流(APEx)訓練では,ヒト解剖学の問合せ表現に結合特徴空間をデコードする問合せベースのセグメンテーション変換器を用いている。
これにより、FDG-PET-CTとChest X-Rayの病理分類タスクにおいて、強力なベースライン法に比べて最大3.3%のマージンで、ボード全体で最高の結果を報告できる。
論文 参考訳(メタデータ) (2024-07-08T11:44:15Z) - A Textbook Remedy for Domain Shifts: Knowledge Priors for Medical Image Analysis [48.84443450990355]
ディープネットワークは、医学的なスキャンに適用すると、例外のない状況で失敗することが多いため、自然画像の解析において広く成功している。
胸部X線や皮膚病変画像の文脈において、異なる病院から採取したデータや、性別、人種などの人口統計学的変数によって構築されたデータなど、ドメインシフトに対するモデル感度に焦点をあてる。
医学教育からインスピレーションを得て,自然言語で伝達される明示的な医学知識を基盤としたディープネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T17:55:02Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - From CNN to Transformer: A Review of Medical Image Segmentation Models [7.3150850275578145]
医用画像セグメンテーションのための深層学習が主流となっている。
本稿では,近年最も代表的な4つの医用画像セグメンテーションモデルについて調査する。
理論的にこれらのモデルの特徴を解析し、2つのベンチマークデータセット上でそれらの性能を定量的に評価する。
論文 参考訳(メタデータ) (2023-08-10T02:48:57Z) - Trustworthy Deep Learning for Medical Image Segmentation [1.0152838128195467]
深層学習に基づくセグメンテーション法の主な制限は、画像取得プロトコルにおける可変性に対する堅牢性の欠如である。
多くの場合、手動による医用画像のセグメンテーションは高度に熟練したラッカーを必要とし、時間を要する。
この論文は、これらの制限を緩和する新しい数学的および最適化手法を導入している。
論文 参考訳(メタデータ) (2023-05-27T12:12:53Z) - Unsupervised Domain Adaptation through Shape Modeling for Medical Image
Segmentation [23.045760366698634]
医用画像のセグメンテーションを支援するために, 形状を明示的にモデル化し, 利用することを目的としている。
従来の方法では、特定の臓器の形状の分布を学習するための変分オートエンコーダ(VAE)モデルが提案されていた。
本研究では,教師/学生の学習パラダイムの下で,擬似的損失とVAE再構成損失に基づく教師なしドメイン適応パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-06T09:16:42Z) - Catalyzing Clinical Diagnostic Pipelines Through Volumetric Medical
Image Segmentation Using Deep Neural Networks: Past, Present, & Future [0.0]
本稿では,最先端(sota)ニューラルネットワークに基づくセグメンテーションアルゴリズムについて概説する。
また、効果的なディープラーニングベースのソリューションの臨床的意義を示す。
論文 参考訳(メタデータ) (2021-03-27T19:05:11Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Progressive Adversarial Semantic Segmentation [11.323677925193438]
深い畳み込みニューラルネットワークは、完全な監視が与えられた場合、非常によく機能する。
画像解析タスクのための完全教師付きモデルの成功は、大量のラベル付きデータの入手に限られる。
本稿では,新しい医用画像分割モデル,Progressive Adrial Semantic(PASS)を提案する。
論文 参考訳(メタデータ) (2020-05-08T22:48:00Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。