論文の概要: Weakly supervised alignment and registration of MR-CT for cervical cancer radiotherapy
- arxiv url: http://arxiv.org/abs/2405.12850v1
- Date: Tue, 21 May 2024 15:05:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 13:00:17.716730
- Title: Weakly supervised alignment and registration of MR-CT for cervical cancer radiotherapy
- Title(参考訳): 頚癌放射線治療におけるMR-CTの弱監督的アライメントと登録
- Authors: Jjahao Zhang, Yin Gu, Deyu Sun, Yuhua Gao, Ming Gao, Ming Cui, Teng Zhang, He Ma,
- Abstract要約: 子宮頸癌は女性の死因の1つである。
予備的な空間アライメントアルゴリズムと弱教師付きマルチモーダル登録ネットワークを提案する。
- 参考スコア(独自算出の注目度): 9.060365057476133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cervical cancer is one of the leading causes of death in women, and brachytherapy is currently the primary treatment method. However, it is important to precisely define the extent of paracervical tissue invasion to improve cancer diagnosis and treatment options. The fusion of the information characteristics of both computed tomography (CT) and magnetic resonance imaging(MRI) modalities may be useful in achieving a precise outline of the extent of paracervical tissue invasion. Registration is the initial step in information fusion. However, when aligning multimodal images with varying depths, manual alignment is prone to large errors and is time-consuming. Furthermore, the variations in the size of the Region of Interest (ROI) and the shape of multimodal images pose a significant challenge for achieving accurate registration.In this paper, we propose a preliminary spatial alignment algorithm and a weakly supervised multimodal registration network. The spatial position alignment algorithm efficiently utilizes the limited annotation information in the two modal images provided by the doctor to automatically align multimodal images with varying depths. By utilizing aligned multimodal images for weakly supervised registration and incorporating pyramidal features and cost volume to estimate the optical flow, the results indicate that the proposed method outperforms traditional volume rendering alignment methods and registration networks in various evaluation metrics. This demonstrates the effectiveness of our model in multimodal image registration.
- Abstract(参考訳): 子宮頸癌は女性の主要な死因の1つであり、現在、ブラキセラピーが第一治療方法である。
しかし,癌診断や治療の選択肢を改善するために,頸部組織浸潤の程度を正確に定義することが重要である。
CT (Computed tomography) とMRI (MRI) の両特徴の融合は, 骨盤内組織浸潤の程度を正確に把握するのに有用である。
登録は情報融合の最初のステップである。
しかし、多モード画像に様々な深さを合わせると、手動のアライメントは大きなエラーを起こしやすく、時間を要する。
さらに、関心領域(ROI)の大きさやマルチモーダル画像の形状の変化は、正確な登録を実現する上で重要な課題であり、本稿では、予備的な空間アライメントアルゴリズムと弱教師付きマルチモーダル登録ネットワークを提案する。
空間位置アライメントアルゴリズムは、医師が提供した2つのモーダル画像の限定アノテーション情報を効率よく利用し、複数のモーダル画像を様々な深さで自動的にアライメントする。
本手法は,光学的フローを推定するために,弱教師付きレジストレーションとピラミッド特徴量とコストボリュームを併用したアライメントマルチモーダル画像を利用することにより,従来のボリュームレンダリングアライメント手法や登録ネットワークよりも優れた性能を示すことを示す。
これは,マルチモーダル画像登録におけるモデルの有効性を示す。
関連論文リスト
- Unsupervised Multimodal 3D Medical Image Registration with Multilevel Correlation Balanced Optimization [22.633633605566214]
マルチレベル相関バランス最適化に基づく教師なしマルチモーダル医用画像登録手法を提案する。
異なるモードの術前医療画像に対して、変形場間の最大融合により有効な情報のアライメントと積み重ねを実現する。
論文 参考訳(メタデータ) (2024-09-08T09:38:59Z) - Multimodal Deformable Image Registration for Long-COVID Analysis Based on Progressive Alignment and Multi-perspective Loss [0.0]
長期のCOVIDは、持続的な症状、特に肺障害によって特徴づけられる。
XeMRIからの機能的データとCTからの構造的データを統合することは、包括的な分析と効果的な治療戦略に不可欠である。
本稿では,長期肺CTと陽子密度MRIデータとの整合性に優れた画像登録手法を提案する。
論文 参考訳(メタデータ) (2024-06-21T14:19:18Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Enhanced Synthetic MRI Generation from CT Scans Using CycleGAN with
Feature Extraction [3.2088888904556123]
合成MRI画像を用いたCTスキャンによるモノモーダル登録の高速化手法を提案する。
提案手法は有望な結果を示し,いくつかの最先端手法より優れていた。
論文 参考訳(メタデータ) (2023-10-31T16:39:56Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - Multimodal Multi-Head Convolutional Attention with Various Kernel Sizes
for Medical Image Super-Resolution [56.622832383316215]
超解像CTおよびMRIスキャンのための新しいマルチヘッド畳み込みアテンションモジュールを提案する。
我々の注目モジュールは、畳み込み操作を用いて、複数の入力テンソルに対して共同的な空間チャネルアテンションを行う。
それぞれの頭部は空間的注意に対する特定の減少率に応じた受容野の大きさの異なる複数の注意ヘッドを導入している。
論文 参考訳(メタデータ) (2022-04-08T07:56:55Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - A Deep Discontinuity-Preserving Image Registration Network [73.03885837923599]
ほとんどの深層学習に基づく登録法は、所望の変形場が全世界的に滑らかで連続的であると仮定する。
本稿では、より優れた登録性能とリアルな変形場を得るために、弱い教師付き深部不連続保存画像登録ネットワーク(DDIR)を提案する。
本研究では, 心臓磁気共鳴(MR)画像の登録実験において, 登録精度を大幅に向上し, より現実的な変形を予測できることを実証した。
論文 参考訳(メタデータ) (2021-07-09T13:35:59Z) - ShuffleUNet: Super resolution of diffusion-weighted MRIs using deep
learning [47.68307909984442]
SISR(Single Image Super-Resolution)は、1つの低解像度入力画像から高解像度(HR)の詳細を得る技術である。
ディープラーニングは、大きなデータセットから事前知識を抽出し、低解像度の画像から優れたMRI画像を生成します。
論文 参考訳(メタデータ) (2021-02-25T14:52:23Z) - Unsupervised Multimodal Image Registration with Adaptative Gradient
Guidance [23.461130560414805]
教師なし学習に基づく手法は、変形可能な画像登録における精度と効率よりも有望な性能を示す。
既存の手法の予測変形場は、登録済み画像対に完全に依存する。
両モデルから推定される変形場を利用する新しい多モード登録フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T05:47:20Z) - Patch-based field-of-view matching in multi-modal images for
electroporation-based ablations [0.6285581681015912]
マルチモーダルイメージングセンサーは、現在、介入治療作業フローの異なるステップに関与している。
この情報を統合するには、取得した画像間の観測された解剖の正確な空間的アライメントに依存する。
本稿では, ボクセルパッチを用いた地域登録手法が, ボクセルワイドアプローチと「グローバルシフト」アプローチとの間に優れた構造的妥協をもたらすことを示す。
論文 参考訳(メタデータ) (2020-11-09T11:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。