論文の概要: SAMIR, an efficient registration framework via robust feature learning from SAM
- arxiv url: http://arxiv.org/abs/2509.13629v1
- Date: Wed, 17 Sep 2025 01:56:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.689755
- Title: SAMIR, an efficient registration framework via robust feature learning from SAM
- Title(参考訳): SAMIR - SAMからの堅牢な特徴学習による効率的な登録フレームワーク
- Authors: Yue He, Min Liu, Qinghao Liu, Jiazheng Wang, Yaonan Wang, Hang Zhang, Xiang Chen,
- Abstract要約: 本稿では,効率的な医用画像登録フレームワークSAMIRを紹介する。
SAMは大規模な自然画像データセットで事前訓練されており、堅牢で汎用的な視覚表現を学習することができる。
SAMIRは, 心内画像登録および腹部CT画像登録のベンチマークデータセットにおいて, 最先端の手法よりも有意に優れていた。
- 参考スコア(独自算出の注目度): 40.09295562721889
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image registration is a fundamental task in medical image analysis. Deformations are often closely related to the morphological characteristics of tissues, making accurate feature extraction crucial. Recent weakly supervised methods improve registration by incorporating anatomical priors such as segmentation masks or landmarks, either as inputs or in the loss function. However, such weak labels are often not readily available, limiting their practical use. Motivated by the strong representation learning ability of visual foundation models, this paper introduces SAMIR, an efficient medical image registration framework that utilizes the Segment Anything Model (SAM) to enhance feature extraction. SAM is pretrained on large-scale natural image datasets and can learn robust, general-purpose visual representations. Rather than using raw input images, we design a task-specific adaptation pipeline using SAM's image encoder to extract structure-aware feature embeddings, enabling more accurate modeling of anatomical consistency and deformation patterns. We further design a lightweight 3D head to refine features within the embedding space, adapting to local deformations in medical images. Additionally, we introduce a Hierarchical Feature Consistency Loss to guide coarse-to-fine feature matching and improve anatomical alignment. Extensive experiments demonstrate that SAMIR significantly outperforms state-of-the-art methods on benchmark datasets for both intra-subject cardiac image registration and inter-subject abdomen CT image registration, achieving performance improvements of 2.68% on ACDC and 6.44% on the abdomen dataset. The source code will be publicly available on GitHub following the acceptance of this paper.
- Abstract(参考訳): 画像登録は、医用画像解析の基本的な課題である。
変形はしばしば組織の形態的特性と密接に関連しており、正確な特徴抽出が重要である。
最近の弱い監督手法は、セグメンテーションマスクやランドマークなどの解剖学的先行要素を入力や損失関数として組み込むことで、登録を改善する。
しかし、そのような弱いラベルはすぐには利用できないことが多く、実用的使用を制限している。
本稿では,視覚基盤モデルの強力な表現学習能力に触発され,SAMIR(Segment Anything Model)を用いて特徴抽出を強化する効率的な医用画像登録フレームワークを提案する。
SAMは大規模な自然画像データセットで事前訓練されており、堅牢で汎用的な視覚表現を学習することができる。
原画像ではなく、SAMの画像エンコーダを用いてタスク固有の適応パイプラインを設計し、構造を意識した特徴埋め込みを抽出し、解剖学的一貫性と変形パターンのより正確なモデリングを可能にする。
さらに、医療画像の局所的な変形に適応して、埋め込み空間内の特徴を洗練するための軽量な3Dヘッドを設計する。
さらに、階層的特徴整合性損失を導入し、粗い特徴マッチングをガイドし、解剖学的アライメントを改善する。
広範な実験により、SAMIRは心内心内画像登録と腹部間CT画像登録の両方のベンチマークデータセットにおける最先端の手法を著しく上回り、ACDCでは2.68%、腹部データセットでは6.44%のパフォーマンス向上を達成した。
ソースコードは、この記事の受理後、GitHubで公開される。
関連論文リスト
- Improving Generalization of Medical Image Registration Foundation Model [12.144724550118756]
本稿では,医療画像登録における一般化と堅牢性を高めるため,シャープネス・アウェアの最小化を基礎モデルに組み込む。
実験結果から,SAMと統合された基礎モデルにより,データセット間の登録性能が大幅に向上することが確認された。
論文 参考訳(メタデータ) (2025-05-10T06:14:09Z) - Adapting a Segmentation Foundation Model for Medical Image Classification [13.711279542090043]
医療画像分類のためのSegment Anything Model (SAM) を適用するための新しいフレームワークを提案する。
まず、SAM画像エンコーダを特徴抽出器として利用し、セグメント化に基づく特徴量をキャプチャする。
次に,特徴写像に対する空間的局所的な注意重みを計算するための,空間的局所化チャネル注意(SLCA)機構を提案する。
論文 参考訳(メタデータ) (2025-05-09T17:51:51Z) - PathSegDiff: Pathology Segmentation using Diffusion model representations [63.20694440934692]
そこで我々は,Latent Diffusion Models (LDMs) を事前学習した特徴抽出器として活用する,病理組織像分割の新しい手法であるPathSegDiffを提案する。
本手法は,H&E染色組織像から多彩な意味情報を抽出するために,自己教師型エンコーダによって誘導される病理特異的LCMを用いる。
本実験は,BCSSおよびGlaSデータセットにおける従来の手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2025-04-09T14:58:21Z) - IMPACT: A Generic Semantic Loss for Multimodal Medical Image Registration [0.46904601975060667]
IMPACT (Image Metric with Pretrained Model-Agnostic Comparison for Transmodality registration) は、マルチモーダル画像登録のための新しい類似度尺度である。
大規模事前訓練セグメンテーションモデルから抽出した深い特徴の比較に基づいて意味的類似度尺度を定義する。
胸椎CT/CBCTおよび骨盤MR/CTデータセットを含む5つの難易度3次元登録課題について検討した。
論文 参考訳(メタデータ) (2025-03-31T14:08:21Z) - Medical Image Registration Meets Vision Foundation Model: Prototype Learning and Contour Awareness [11.671950446844356]
既存の変形可能な登録法は強度に基づく類似度測定のみに依存しており、明確な解剖学的知識が欠如している。
本稿では,プロトタイプ学習と輪郭認識を取り入れた新しいSAM支援登録フレームワークを提案する。
私たちのフレームワークは、既存のメソッドを複数のデータセットで大幅に上回っています。
論文 参考訳(メタデータ) (2025-02-17T04:54:47Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。