論文の概要: MedContext: Learning Contextual Cues for Efficient Volumetric Medical
Segmentation
- arxiv url: http://arxiv.org/abs/2402.17725v1
- Date: Tue, 27 Feb 2024 17:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 15:04:33.952541
- Title: MedContext: Learning Contextual Cues for Efficient Volumetric Medical
Segmentation
- Title(参考訳): medcontext: 効率的な体積医療セグメンテーションのための文脈的手がかりの学習
- Authors: Hanan Gani, Muzammal Naseer, Fahad Khan and Salman Khan
- Abstract要約: 医用3次元セグメンテーションのためのユニバーサルトレーニングフレームワークMedContextを提案する。
本手法は,教師付きボクセルセグメンテーションタスクと協調して,自己教師付きコンテキストキューを効果的に学習する。
MedContextの有効性は、複数の3D医療データセットと4つの最先端モデルアーキテクチャで検証されている。
- 参考スコア(独自算出の注目度): 28.120065451627536
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Volumetric medical segmentation is a critical component of 3D medical image
analysis that delineates different semantic regions. Deep neural networks have
significantly improved volumetric medical segmentation, but they generally
require large-scale annotated data to achieve better performance, which can be
expensive and prohibitive to obtain. To address this limitation, existing works
typically perform transfer learning or design dedicated pretraining-finetuning
stages to learn representative features. However, the mismatch between the
source and target domain can make it challenging to learn optimal
representation for volumetric data, while the multi-stage training demands
higher compute as well as careful selection of stage-specific design choices.
In contrast, we propose a universal training framework called MedContext that
is architecture-agnostic and can be incorporated into any existing training
framework for 3D medical segmentation. Our approach effectively learns self
supervised contextual cues jointly with the supervised voxel segmentation task
without requiring large-scale annotated volumetric medical data or dedicated
pretraining-finetuning stages. The proposed approach induces contextual
knowledge in the network by learning to reconstruct the missing organ or parts
of an organ in the output segmentation space. The effectiveness of MedContext
is validated across multiple 3D medical datasets and four state-of-the-art
model architectures. Our approach demonstrates consistent gains in segmentation
performance across datasets and different architectures even in few-shot data
scenarios. Our code and pretrained models are available at
https://github.com/hananshafi/MedContext
- Abstract(参考訳): ボリューム・メディカル・セグメンテーションは、異なる意味領域を規定する3次元医用画像解析の重要な構成要素である。
ディープニューラルネットワークは、ボリューム医学のセグメンテーションを大幅に改善しているが、一般的には、パフォーマンス向上のために大規模な注釈付きデータを必要とする。
この制限に対処するために、既存の研究は典型的には伝達学習や、代表的特徴を学習するための専用の訓練済みファインタニングステージの設計を行う。
しかしながら、ソース領域とターゲット領域のミスマッチはボリュームデータの最適な表現を学ぶのを難しくするが、多段階トレーニングでは計算量が高く、ステージ固有の設計選択を慎重に選択する必要がある。
対照的に,我々は,アーキテクチャに依存せず,既存の3d医療セグメンテーションのためのトレーニングフレームワークに組み込むことができる,medcontextと呼ばれるユニバーサルトレーニングフレームワークを提案する。
本手法は,大規模に注釈付ボリューム医療データや専用の事前学習段階を必要とせずに,教師付きボクセルセグメンテーションタスクと共同で自己教師付コンテキストキューを効果的に学習する。
提案手法は,出力セグメンテーション空間における臓器の欠損部分や臓器の再構築を学習することで,ネットワーク内の文脈知識を誘導する。
MedContextの有効性は、複数の3D医療データセットと4つの最先端モデルアーキテクチャで検証されている。
私たちのアプローチは、わずかなデータシナリオであっても、データセットと異なるアーキテクチャ間でのセグメンテーション性能の一貫した向上を示しています。
私たちのコードとトレーニング済みモデルはhttps://github.com/hananshafi/medcontextで利用可能です。
関連論文リスト
- Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - Enhancing Weakly Supervised 3D Medical Image Segmentation through
Probabilistic-aware Learning [52.249748801637196]
3次元医用画像のセグメンテーションは、疾患の診断と治療計画に重要な意味を持つ課題である。
近年の深層学習の進歩は、完全に教師付き医療画像のセグメンテーションを著しく強化している。
本稿では,3次元医用画像に特化して設計された,確率的適応型弱教師付き学習パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-05T00:46:53Z) - Promise:Prompt-driven 3D Medical Image Segmentation Using Pretrained
Image Foundation Models [13.08275555017179]
単点プロンプトのみを用いたプロンプト駆動型3次元医用画像分割モデルProMISeを提案する。
今回,大腸癌と膵腫瘍の2つの領域に分布する2つのパブリックデータセットについて検討した。
論文 参考訳(メタデータ) (2023-10-30T16:49:03Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Implicit Anatomical Rendering for Medical Image Segmentation with
Stochastic Experts [11.007092387379078]
医用画像セグメンテーションの学習を支援するために,解剖学的レベルで設計された汎用的な暗黙的ニューラルネットワークレンダリングフレームワークであるMORSEを提案する。
医用画像のセグメンテーションをエンドツーエンドのレンダリング問題として定式化する。
実験の結果,MORSEは異なる医療セグメントのバックボーンでうまく機能することが示された。
論文 参考訳(メタデータ) (2023-04-06T16:44:03Z) - MetaMedSeg: Volumetric Meta-learning for Few-Shot Organ Segmentation [47.428577772279176]
本稿では,容量医学データに対するメタラーニングタスクを再定義する,勾配に基づくメタラーニングアルゴリズムであるMetaMedSegを提案する。
実験では, 異なる臓器のCTおよびMRIから2Dスライスを抽出し, 医療用デカトロンデータセットの評価を行った。
提案したボリュームタスク定義は,関連するベースラインと比較してIoUで最大30%改善した。
論文 参考訳(メタデータ) (2021-09-18T11:13:45Z) - 3D Segmentation Networks for Excessive Numbers of Classes: Distinct Bone
Segmentation in Upper Bodies [1.2023648183416153]
本稿では,多ラベル環境下での3次元セグメンテーションネットワークの訓練の複雑さについて論じる。
ネットワークアーキテクチャ、損失関数、データ拡張に必要となる変更を示す。
その結果,CTスキャンから学習した100以上の骨を同時に分割し,その頑健さを実証した。
論文 参考訳(メタデータ) (2020-10-14T12:54:15Z) - Domain Generalization for Medical Imaging Classification with
Linear-Dependency Regularization [59.5104563755095]
本稿では,医用画像分類分野におけるディープニューラルネットワークの一般化能力向上のための,シンプルだが効果的なアプローチを提案する。
医用画像の領域変数がある程度コンパクトであることに感銘を受けて,変分符号化による代表的特徴空間の学習を提案する。
論文 参考訳(メタデータ) (2020-09-27T12:30:30Z) - Uncertainty-aware multi-view co-training for semi-supervised medical
image segmentation and domain adaptation [35.33425093398756]
ラベルのないデータは、注釈付きデータよりもはるかに簡単に取得できる。
医用画像セグメンテーションのための不確実性を考慮したマルチビュー協調トレーニングを提案する。
我々のフレームワークは、ラベルのないデータを効率的に活用してパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2020-06-28T22:04:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。