論文の概要: An Anisotropic Cross-View Texture Transfer with Multi-Reference Non-Local Attention for CT Slice Interpolation
- arxiv url: http://arxiv.org/abs/2509.20242v1
- Date: Wed, 24 Sep 2025 15:32:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.882742
- Title: An Anisotropic Cross-View Texture Transfer with Multi-Reference Non-Local Attention for CT Slice Interpolation
- Title(参考訳): CTスライス補間のためのマルチ参照非局所注意を用いた異方性クロスビューテクスチャ転送
- Authors: Kwang-Hyun Uhm, Hyunjun Cho, Sung-Hoo Hong, Seung-Won Jung,
- Abstract要約: 臨床実践では、CT画像は通常、高コストのメモリストレージと操作時間のために大きなスライス厚で取得される。
深層学習に基づく超解像法はスライス間分解能を改善するために開発された。
3次元CTボリュームの異方性特性をフル活用して,CTスライスのための新しい横方向テクスチャ転送手法を提案する。
- 参考スコア(独自算出の注目度): 14.362801452711466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computed tomography (CT) is one of the most widely used non-invasive imaging modalities for medical diagnosis. In clinical practice, CT images are usually acquired with large slice thicknesses due to the high cost of memory storage and operation time, resulting in an anisotropic CT volume with much lower inter-slice resolution than in-plane resolution. Since such inconsistent resolution may lead to difficulties in disease diagnosis, deep learning-based volumetric super-resolution methods have been developed to improve inter-slice resolution. Most existing methods conduct single-image super-resolution on the through-plane or synthesize intermediate slices from adjacent slices; however, the anisotropic characteristic of 3D CT volume has not been well explored. In this paper, we propose a novel cross-view texture transfer approach for CT slice interpolation by fully utilizing the anisotropic nature of 3D CT volume. Specifically, we design a unique framework that takes high-resolution in-plane texture details as a reference and transfers them to low-resolution through-plane images. To this end, we introduce a multi-reference non-local attention module that extracts meaningful features for reconstructing through-plane high-frequency details from multiple in-plane images. Through extensive experiments, we demonstrate that our method performs significantly better in CT slice interpolation than existing competing methods on public CT datasets including a real-paired benchmark, verifying the effectiveness of the proposed framework. The source code of this work is available at https://github.com/khuhm/ACVTT.
- Abstract(参考訳): CT(Computerd tomography)は、医学的診断において最も広く用いられている非侵襲的画像モダリティの1つである。
臨床では、CT画像は、高コストのメモリストレージと操作時間のために大きなスライス厚で取得され、結果として、平面内解像度よりもはるかに低いスライス解像度の異方性CTボリュームとなる。
このような不整合分解能は病気の診断に困難をもたらす可能性があるため、深層学習に基づくボリューム超解法が、スライス間分解能を改善するために開発された。
既存のほとんどの方法は、スループレーン上で単像超解像を行い、隣接するスライスから中間スライスを合成するが、3次元CTボリュームの異方性特性はよく調べられていない。
本稿では,3次元CTボリュームの異方性特性をフル活用して,CTスライス補間のためのクロスビューテクスチャ転送手法を提案する。
具体的には、高解像度の面内テクスチャの詳細を参照として、低解像度の面内画像に転送する独自のフレームワークを設計する。
この目的のために,複数の面内画像から平面内高周波の詳細を再構成する意味のある特徴を抽出する多参照非局所アテンションモジュールを提案する。
実験により,提案手法は,実時間ベンチマークを含む公開CTデータセット上の既存の競合手法よりも,CTスライス補間において優れた性能を示し,提案手法の有効性を検証した。
この作業のソースコードはhttps://github.com/khuhm/ACVTTで公開されている。
関連論文リスト
- Recurrent Visual Feature Extraction and Stereo Attentions for CT Report Generation [18.113659670915474]
本稿では,大規模言語モデル (LLM) に基づくCTRG法を提案する。
具体的には、視覚変換器を用いて、各スライスをCTボリュームで繰り返し処理し、異なる視点から符号化したスライスに注意を払って重要な視覚情報を得る。
ベンチマークM3D-Capデータセットの実験結果とさらなる解析により,本手法が強いベースラインモデルより優れていることが示された。
論文 参考訳(メタデータ) (2025-06-24T14:29:06Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Fluid registration between lung CT and stationary chest tomosynthesis
images [23.239722016943794]
計測された投影とデジタル再構成されたラジオグラフに基づいて3次元変形を推定する3D/2D登録手法を定式化する。
我々は,CTと静止胸部トモシンセシス(sDCT)画像の登録に対するアプローチを実証し,それが反復的画像再構成アプローチにどのように自然に導かれるかを示した。
論文 参考訳(メタデータ) (2022-03-06T21:51:49Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Image Synthesis for Data Augmentation in Medical CT using Deep
Reinforcement Learning [31.677682150726383]
本手法は, 新規かつ解剖学的に高精度な高解像度CT画像の大量かつ多種多様な生成に有効であることを示す。
私たちのアプローチは、多くの研究者が利用可能な画像データの少ない量を考えると望ましい小さな画像データセットでも機能するように特別に設計されています。
論文 参考訳(メタデータ) (2021-03-18T19:47:11Z) - Patch-based field-of-view matching in multi-modal images for
electroporation-based ablations [0.6285581681015912]
マルチモーダルイメージングセンサーは、現在、介入治療作業フローの異なるステップに関与している。
この情報を統合するには、取得した画像間の観測された解剖の正確な空間的アライメントに依存する。
本稿では, ボクセルパッチを用いた地域登録手法が, ボクセルワイドアプローチと「グローバルシフト」アプローチとの間に優れた構造的妥協をもたらすことを示す。
論文 参考訳(メタデータ) (2020-11-09T11:27:45Z) - Hierarchical Amortized Training for Memory-efficient High Resolution 3D
GAN [52.851990439671475]
本稿では,高解像度な3D画像を生成することができる新しいエンドツーエンドGANアーキテクチャを提案する。
トレーニングと推論の異なる構成を使用することで、この目標を達成する。
3次元胸郭CTと脳MRIの実験により、我々のアプローチは画像生成における最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2020-08-05T02:33:04Z) - HRINet: Alternative Supervision Network for High-resolution CT image
Interpolation [3.7966959476339035]
我々は,高分解能CT画像の生成を目的とした,新しいネットワークであるHigh Resolution Interpolation Network (HRINet)を提案する。
本稿では,ACAI と GAN のアイデアを組み合わせて,教師なしと教師なしのトレーニングを適用して,代替監督手法の新たなアイデアを提案する。
実験の結果,2562,5122画像の定量的,定性的に大きな改善が見られた。
論文 参考訳(メタデータ) (2020-02-11T15:09:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。