論文の概要: Medical Image Registration Meets Vision Foundation Model: Prototype Learning and Contour Awareness
- arxiv url: http://arxiv.org/abs/2502.11440v1
- Date: Mon, 17 Feb 2025 04:54:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:10:47.421785
- Title: Medical Image Registration Meets Vision Foundation Model: Prototype Learning and Contour Awareness
- Title(参考訳): 医用画像登録とビジョンファウンデーションモデル:プロトタイプ学習と輪郭認識
- Authors: Hao Xu, Tengfei Xue, Jianan Fan, Dongnan Liu, Yuqian Chen, Fan Zhang, Carl-Fredrik Westin, Ron Kikinis, Lauren J. O'Donnell, Weidong Cai,
- Abstract要約: 既存の変形可能な登録法は強度に基づく類似度測定のみに依存しており、明確な解剖学的知識が欠如している。
本稿では,プロトタイプ学習と輪郭認識を取り入れた新しいSAM支援登録フレームワークを提案する。
私たちのフレームワークは、既存のメソッドを複数のデータセットで大幅に上回っています。
- 参考スコア(独自算出の注目度): 11.671950446844356
- License:
- Abstract: Medical image registration is a fundamental task in medical image analysis, aiming to establish spatial correspondences between paired images. However, existing unsupervised deformable registration methods rely solely on intensity-based similarity metrics, lacking explicit anatomical knowledge, which limits their accuracy and robustness. Vision foundation models, such as the Segment Anything Model (SAM), can generate high-quality segmentation masks that provide explicit anatomical structure knowledge, addressing the limitations of traditional methods that depend only on intensity similarity. Based on this, we propose a novel SAM-assisted registration framework incorporating prototype learning and contour awareness. The framework includes: (1) Explicit anatomical information injection, where SAM-generated segmentation masks are used as auxiliary inputs throughout training and testing to ensure the consistency of anatomical information; (2) Prototype learning, which leverages segmentation masks to extract prototype features and aligns prototypes to optimize semantic correspondences between images; and (3) Contour-aware loss, a contour-aware loss is designed that leverages the edges of segmentation masks to improve the model's performance in fine-grained deformation fields. Extensive experiments demonstrate that the proposed framework significantly outperforms existing methods across multiple datasets, particularly in challenging scenarios with complex anatomical structures and ambiguous boundaries. Our code is available at https://github.com/HaoXu0507/IPMI25-SAM-Assisted-Registration.
- Abstract(参考訳): 医用画像登録は, 医用画像解析における基本的な課題であり, 対画像間の空間的対応を確立することを目的としている。
しかし、既存の教師なしの変形可能な登録法は強度に基づく類似性尺度にのみ依存しており、その正確さと堅牢性を制限する明確な解剖学的知識が欠如している。
SAM(Segment Anything Model)のような視覚基盤モデルは、強度の類似性にのみ依存する従来の手法の制限に対処しながら、明確な解剖学的構造知識を提供する高品質なセグメンテーションマスクを生成することができる。
そこで本研究では,プロトタイプ学習と輪郭認識を取り入れた新しいSAM支援登録フレームワークを提案する。
本フレームワークは,(1)解剖学的な情報注入,(2)解剖学的な情報の整合性を確保するため,SAM生成セグメンテーションマスクを補助入力として使用すること,(2)セグメンテーションマスクを利用してプロトタイプの特徴を抽出し,プロトタイプを整列させて画像間のセグメンテーション対応を最適化すること,(3)輪郭認識の損失を考慮し,セグメンテーションマスクのエッジを活用してモデルの性能を向上させること,を含む。
大規模な実験により、提案されたフレームワークは、特に複雑な解剖学的構造と曖昧な境界を持つ挑戦的なシナリオにおいて、複数のデータセットにまたがる既存のメソッドを著しく上回ります。
私たちのコードはhttps://github.com/HaoXu0507/IPMI25-SAM-Assisted-Registrationで利用可能です。
関連論文リスト
- MASSM: An End-to-End Deep Learning Framework for Multi-Anatomy Statistical Shape Modeling Directly From Images [1.9029890402585894]
複数の解剖を同時にローカライズし、人口レベルの統計表現を推定し、画像空間内での形状表現を直接記述する新しいエンドツーエンドディープラーニングフレームワークであるMASSMを紹介する。
以上の結果から,マルチタスクネットワークを介して画像空間の解剖を記述し,複数の解剖処理を行うMASSMは,医用画像処理タスクのセグメンテーションネットワークよりも優れた形状情報を提供することがわかった。
論文 参考訳(メタデータ) (2024-03-16T20:16:37Z) - Modality-Agnostic Structural Image Representation Learning for Deformable Multi-Modality Medical Image Registration [22.157402663162877]
本稿では,識別的・コントラスト的・非分散的な深部構造画像表現を学習するためのモダリティ非依存的構造表現学習法を提案する。
本手法は,従来の局所的構造表現や統計的類似度尺度よりも識別性と精度の点で優れている。
論文 参考訳(メタデータ) (2024-02-29T08:01:31Z) - Bayesian Unsupervised Disentanglement of Anatomy and Geometry for Deep Groupwise Image Registration [50.62725807357586]
本稿では,マルチモーダル群画像登録のための一般ベイズ学習フレームワークを提案する。
本稿では,潜在変数の推論手順を実現するために,新しい階層的変分自動符号化アーキテクチャを提案する。
心臓、脳、腹部の医療画像から4つの異なるデータセットを含む,提案された枠組みを検証する実験を行った。
論文 参考訳(メタデータ) (2024-01-04T08:46:39Z) - SAME++: A Self-supervised Anatomical eMbeddings Enhanced medical image
registration framework using stable sampling and regularized transformation [19.683682147655496]
本研究では,自己監督型解剖学的eMbeddingアルゴリズムを用いて,非教師付き3次元医用画像登録のための高速かつ高精度な手法を提案する。
我々は、画像登録をアフィン変換、粗い変形、深度非パラメトリック変換、インスタンス最適化の4つのステップに分割するアプローチSAM-Enhanced registration (SAME++) を命名した。
完全な登録フレームワークとして、Mate++はDiceスコアの点で、リードメソッドの4.2%$ - 8.2%$を著しく上回っている。
論文 参考訳(メタデータ) (2023-11-25T10:11:04Z) - Joint segmentation and discontinuity-preserving deformable registration:
Application to cardiac cine-MR images [74.99415008543276]
多くの深層学習に基づく登録法は、変形場は画像領域の至る所で滑らかで連続的であると仮定する。
本研究では,この課題に対処するために,不連続かつ局所的に滑らかな変形場を確保するための新しい不連続保存画像登録手法を提案する。
入力画像の構造的相関を学習するために,ネットワークのセグメンテーション成分にコアテンションブロックを提案する。
大規模心磁気共鳴画像系列を用いた物体内時間画像登録の課題について検討した。
論文 参考訳(メタデータ) (2022-11-24T23:45:01Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - Prototypical few-shot segmentation for cross-institution male pelvic
structures with spatial registration [24.089382725904304]
この研究は、完全に3次元のショットセグメンテーションアルゴリズムを記述している。
トレーニングされたネットワークは、トレーニングに欠落している臨床的に興味深い構造に効果的に適応することができる。
実験は、介入計画において重要な8つの解剖学的構造を分割する応用として提示される。
論文 参考訳(メタデータ) (2022-09-12T11:34:57Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。