論文の概要: SAME: Deformable Image Registration based on Self-supervised Anatomical
Embeddings
- arxiv url: http://arxiv.org/abs/2109.11572v1
- Date: Thu, 23 Sep 2021 18:03:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-27 14:06:00.255224
- Title: SAME: Deformable Image Registration based on Self-supervised Anatomical
Embeddings
- Title(参考訳): 自己監督型解剖学的埋め込みに基づく変形可能な画像登録
- Authors: Fengze Liu, Ke Yan, Adam Harrison, Dazhou Guo, Le Lu, Alan Yuille,
Lingyun Huang, Guotong Xie, Jing Xiao, Xianghua Ye, Dakai Jin
- Abstract要約: この研究は、ピクセルレベルでの2つの画像間の密度の高い解剖学的/意味的対応を計算できる最近のアルゴリズムSAMに基づいて構築されている。
本手法は, 画像登録をアフィン変換, 粗変形, 深部変形可能な3段階に分割する。
- 参考スコア(独自算出の注目度): 16.38383865408585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we introduce a fast and accurate method for unsupervised 3D
medical image registration. This work is built on top of a recent algorithm
SAM, which is capable of computing dense anatomical/semantic correspondences
between two images at the pixel level. Our method is named SAME, which breaks
down image registration into three steps: affine transformation, coarse
deformation, and deep deformable registration. Using SAM embeddings, we enhance
these steps by finding more coherent correspondences, and providing features
and a loss function with better semantic guidance. We collect a multi-phase
chest computed tomography dataset with 35 annotated organs for each patient and
conduct inter-subject registration for quantitative evaluation. Results show
that SAME outperforms widely-used traditional registration techniques (Elastix
FFD, ANTs SyN) and learning based VoxelMorph method by at least 4.7% and 2.7%
in Dice scores for two separate tasks of within-contrast-phase and
across-contrast-phase registration, respectively. SAME achieves the comparable
performance to the best traditional registration method, DEEDS (from our
evaluation), while being orders of magnitude faster (from 45 seconds to 1.2
seconds).
- Abstract(参考訳): 本研究では,教師なし3次元医用画像の高速かつ正確な登録方法を提案する。
この研究は、ピクセルレベルで2つの画像間の密集した解剖学的/意味的対応を計算できる最近のアルゴリズムsam上に構築されている。
本手法は, 画像登録をアフィン変換, 粗変形, 深部変形可能な3段階に分割する。
SAM埋め込みを用いて、よりコヒーレントな対応を見つけ、セマンティックガイダンスを改良した特徴と損失関数を提供することにより、これらのステップを強化する。
各患者に35個のアノテート臓器を有する多相胸部ctデータセットを収集し,定量評価のためにサブジェクト間登録を行う。
その結果, 従来の登録手法(Elastix FFD, ANTs SyN)と学習に基づくVoxelMorph法(VoxelMorph法)は, それぞれ, コントラスト内相およびコントラスト間相の2つの異なるタスクに対するDiceスコアの少なくとも4.7%, 2.7%に優れていた。
従来の登録手法であるDEEDSと同等の性能を達成し(我々の評価から)、桁違いに高速な(45秒から1.2秒)。
関連論文リスト
- SAM Fewshot Finetuning for Anatomical Segmentation in Medical Images [3.2099042811875833]
医用画像の解剖学的セグメンテーションタスクにSAM(Seegment Anything)を適用するための戦略を提案する。
画像埋め込みで取得した解剖学的クエリーオブジェクトのプロンプトとして,ラベル付き画像の限られたセットから得られる少数ショット埋め込みを利用する。
本手法は,キャッシング機構を用いてマスクデコーダのみをトレーニングすることにより,微調整プロセスの効率化を優先する。
論文 参考訳(メタデータ) (2024-07-05T17:07:25Z) - SAME++: A Self-supervised Anatomical eMbeddings Enhanced medical image
registration framework using stable sampling and regularized transformation [19.683682147655496]
本研究では,自己監督型解剖学的eMbeddingアルゴリズムを用いて,非教師付き3次元医用画像登録のための高速かつ高精度な手法を提案する。
我々は、画像登録をアフィン変換、粗い変形、深度非パラメトリック変換、インスタンス最適化の4つのステップに分割するアプローチSAM-Enhanced registration (SAME++) を命名した。
完全な登録フレームワークとして、Mate++はDiceスコアの点で、リードメソッドの4.2%$ - 8.2%$を著しく上回っている。
論文 参考訳(メタデータ) (2023-11-25T10:11:04Z) - ORRN: An ODE-based Recursive Registration Network for Deformable
Respiratory Motion Estimation with Lung 4DCT Images [7.180268723513929]
変形可能な画像登録(DIR)は、医療データにおける変形の定量化に重要な役割を果たす。
近年のDeep Learning法では,医用画像の登録に有望な精度とスピードアップが示されている。
本稿では,正規微分方程式(ODE)に基づく再帰画像登録ネットワークORRNを提案する。
論文 参考訳(メタデータ) (2023-05-24T03:26:26Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Automated Learning for Deformable Medical Image Registration by Jointly
Optimizing Network Architectures and Objective Functions [69.6849409155959]
本稿では、アーキテクチャとそれに対応する学習目標の両方を協調的に最適化する自動学習登録アルゴリズム(AutoReg)を提案する。
マルチサイトボリュームデータセットと各種登録タスクについて,画像登録実験を行った。
我々のAutoRegは、与えられたボリュームに対して最適な深層登録ネットワークを自動的に学習し、最先端の性能を達成することができる。
論文 参考訳(メタデータ) (2022-03-14T01:54:38Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Deep Q-Network-Driven Catheter Segmentation in 3D US by Hybrid
Constrained Semi-Supervised Learning and Dual-UNet [74.22397862400177]
本稿では,教師付き学習手法よりも少ないアノテーションを要求できる新しいカテーテルセグメンテーション手法を提案する。
提案手法では,Voxelレベルのアノテーションを避けるために,深層Q学習を事前局所化ステップとみなす。
検出されたカテーテルでは、パッチベースのDual-UNetを使用してカテーテルを3Dボリュームデータに分割する。
論文 参考訳(メタデータ) (2020-06-25T21:10:04Z) - JSSR: A Joint Synthesis, Segmentation, and Registration System for 3D
Multi-Modal Image Alignment of Large-scale Pathological CT Scans [27.180136688977512]
本稿では,エンドツーエンドの3D畳み込みニューラルネットワークに基づく新しいマルチタスク学習システムJSSRを提案する。
システムは、教師なしの方法で異なるタスク間の暗黙の制約を満たすように最適化されている。
従来型のマルチモーダル登録法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-05-25T16:30:02Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - A Multiple Decoder CNN for Inverse Consistent 3D Image Registration [18.017296651822857]
ディープラーニング技術は、登録時間を劇的に削減し、登録精度を向上している。
逆整合性を持つ登録フレームワークを提案する。
我々は,LPBA40 MRIデータセット上で,この手法のトレーニングと試験を行い,高い性能を示す。
論文 参考訳(メタデータ) (2020-02-15T23:23:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。