論文の概要: Unsupervised Deformable Image Registration with Local-Global Attention and Image Decomposition
- arxiv url: http://arxiv.org/abs/2601.14337v1
- Date: Tue, 20 Jan 2026 13:19:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.106302
- Title: Unsupervised Deformable Image Registration with Local-Global Attention and Image Decomposition
- Title(参考訳): 局所的局所的アテンションと画像分解による教師なし変形画像登録
- Authors: Zhengyong Huang, Xingwen Sun, Xuting Chang, Ning Jiang, Yao Wang, Jianfei Sun, Hongbin Han, Yao Sui,
- Abstract要約: 変形可能な画像登録は、医療画像解析において重要な技術であり、疾患診断、マルチモーダル核融合、手術ナビゲーションなどの臨床実践に広く応用されている。
近年のディープラーニングの進歩は、特徴整合性を改善するための注意に基づくメカニズムを導入しているが、高い解剖学的多様性を持つ領域を正確に登録することは依然として困難である。
本研究では,新しい非教師付きデフォルマブル画像登録フレームワークであるLGANet++を提案する。このフレームワークは,特徴の相互作用と融合のためのユニークな技術と統合され,登録精度,堅牢性,一般化性を向上する。
- 参考スコア(独自算出の注目度): 9.035666469536054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deformable image registration is a critical technology in medical image analysis, with broad applications in clinical practice such as disease diagnosis, multi-modal fusion, and surgical navigation. Traditional methods often rely on iterative optimization, which is computationally intensive and lacks generalizability. Recent advances in deep learning have introduced attention-based mechanisms that improve feature alignment, yet accurately registering regions with high anatomical variability remains challenging. In this study, we proposed a novel unsupervised deformable image registration framework, LGANet++, which employs a novel local-global attention mechanism integrated with a unique technique for feature interaction and fusion to enhance registration accuracy, robustness, and generalizability. We evaluated our approach using five publicly available datasets, representing three distinct registration scenarios: cross-patient, cross-time, and cross-modal CT-MR registration. The results demonstrated that our approach consistently outperforms several state-of-the-art registration methods, improving registration accuracy by 1.39% in cross-patient registration, 0.71% in cross-time registration, and 6.12% in cross-modal CT-MR registration tasks. These results underscore the potential of LGANet++ to support clinical workflows requiring reliable and efficient image registration. The source code is available at https://github.com/huangzyong/LGANet-Registration.
- Abstract(参考訳): 変形可能な画像登録は、医療画像解析において重要な技術であり、疾患診断、マルチモーダル核融合、手術ナビゲーションなどの臨床実践に広く応用されている。
従来の手法はしばしば反復最適化に依存しており、計算集約的で一般化性に欠ける。
近年のディープラーニングの進歩は、特徴整合性を改善するための注意に基づくメカニズムを導入しているが、高い解剖学的多様性を持つ領域を正確に登録することは依然として困難である。
本研究では,新しい非教師付きデフォルマブル画像登録フレームワークであるLGANet++を提案する。このフレームワークは,特徴の相互作用と融合のためのユニークな技術と統合され,登録精度,堅牢性,一般化性を向上する。
今回我々は,5つの公開データセットを用いて,クロス患者,クロスタイム,クロスモーダルCT-MR登録の3つの異なる登録シナリオについて検討した。
その結果, 患者間登録では1.39%, クロスタイム登録では0.71%, クロスモーダルCT-MR登録では6.12%向上した。
これらの結果は、信頼性と効率的な画像登録を必要とする臨床ワークフローをサポートするLGANet++の可能性を強調している。
ソースコードはhttps://github.com/huangzyong/LGANet-Registrationで入手できる。
関連論文リスト
- SAMIR, an efficient registration framework via robust feature learning from SAM [40.09295562721889]
本稿では,効率的な医用画像登録フレームワークSAMIRを紹介する。
SAMは大規模な自然画像データセットで事前訓練されており、堅牢で汎用的な視覚表現を学習することができる。
SAMIRは, 心内画像登録および腹部CT画像登録のベンチマークデータセットにおいて, 最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-09-17T01:56:35Z) - Implicit Deformable Medical Image Registration with Learnable Kernels [0.6749750044497731]
変形可能な医用画像登録は、コンピュータ支援の介入において必須の課題である。
最近のAI手法は、精度とスピードで従来の技術より優れている。
正確かつ信頼性の高い変形を予測できる新しい暗黙の登録フレームワークを導入する。
論文 参考訳(メタデータ) (2025-06-02T18:27:11Z) - IMPACT: A Generic Semantic Loss for Multimodal Medical Image Registration [0.46904601975060667]
IMPACT (Image Metric with Pretrained Model-Agnostic Comparison for Transmodality registration) は、マルチモーダル画像登録のための新しい類似度尺度である。
大規模事前訓練セグメンテーションモデルから抽出した深い特徴の比較に基づいて意味的類似度尺度を定義する。
胸椎CT/CBCTおよび骨盤MR/CTデータセットを含む5つの難易度3次元登録課題について検討した。
論文 参考訳(メタデータ) (2025-03-31T14:08:21Z) - Efficient MedSAMs: Segment Anything in Medical Images on Laptop [69.28565867103542]
我々は,迅速な医用画像のセグメンテーションに特化した初の国際コンペを組織した。
トップチームは軽量なセグメンテーション基盤モデルを開発し、効率的な推論パイプラインを実装した。
最高のパフォーマンスのアルゴリズムは、臨床導入を促進するために、ユーザフレンドリーなインターフェースを備えたオープンソースソフトウェアに組み込まれている。
論文 参考訳(メタデータ) (2024-12-20T17:33:35Z) - Joint segmentation and discontinuity-preserving deformable registration:
Application to cardiac cine-MR images [74.99415008543276]
多くの深層学習に基づく登録法は、変形場は画像領域の至る所で滑らかで連続的であると仮定する。
本研究では,この課題に対処するために,不連続かつ局所的に滑らかな変形場を確保するための新しい不連続保存画像登録手法を提案する。
入力画像の構造的相関を学習するために,ネットワークのセグメンテーション成分にコアテンションブロックを提案する。
大規模心磁気共鳴画像系列を用いた物体内時間画像登録の課題について検討した。
論文 参考訳(メタデータ) (2022-11-24T23:45:01Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - A Deep Discontinuity-Preserving Image Registration Network [73.03885837923599]
ほとんどの深層学習に基づく登録法は、所望の変形場が全世界的に滑らかで連続的であると仮定する。
本稿では、より優れた登録性能とリアルな変形場を得るために、弱い教師付き深部不連続保存画像登録ネットワーク(DDIR)を提案する。
本研究では, 心臓磁気共鳴(MR)画像の登録実験において, 登録精度を大幅に向上し, より現実的な変形を予測できることを実証した。
論文 参考訳(メタデータ) (2021-07-09T13:35:59Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - F3RNet: Full-Resolution Residual Registration Network for Deformable
Image Registration [21.99118499516863]
変形性画像登録(DIR)は多くの画像誘導療法に必須である。
我々は、新しい教師なし登録ネットワーク、すなわちF3RNet(Full-Resolution Residual Registration Network)を提案する。
1つのストリームは、正確なボクセルレベルの登録を容易にするフルレゾリューション情報を利用する。
他方のストリームは、深いマルチスケールの残差表現を学習し、ロバストな認識を得る。
論文 参考訳(メタデータ) (2020-09-15T15:05:54Z) - A coarse-to-fine framework for unsupervised multi-contrast MR image
deformable registration with dual consistency constraint [20.905285486843006]
本稿では, 高精度なマルチコントラストMR画像登録を実現するための, 教師なし学習に基づく新しいフレームワークを提案する。
具体的には、アフィンと変形可能な変換からなるエンドツーエンドの粗いネットワークアーキテクチャを設計する。
提案手法は,CPU上でテストする場合,最も競争力のあるSyN(Affine)よりも約10倍高速である。
論文 参考訳(メタデータ) (2020-08-05T01:16:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。