論文の概要: LIT-Former: Linking In-plane and Through-plane Transformers for
Simultaneous CT Image Denoising and Deblurring
- arxiv url: http://arxiv.org/abs/2302.10630v2
- Date: Sun, 7 Jan 2024 15:18:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 00:28:15.286355
- Title: LIT-Former: Linking In-plane and Through-plane Transformers for
Simultaneous CT Image Denoising and Deblurring
- Title(参考訳): lit-former:ct画像のデノイジングとデブラリングのための面内トランスフォーマーと面内トランスフォーマーのリンク
- Authors: Zhihao Chen, Chuang Niu, Qi Gao, Ge Wang, Hongming Shan
- Abstract要約: 本稿では3次元低線量CT像について検討する。
この文脈で様々な深層学習法が開発されたが、一般的には2次元画像に焦点をあて、低線量化と分解能の劣化によりデノナイジングを行う。
従来,高画質3次元CT画像の低放射線化と高速撮像速度の確保が重要であった,平面内脱色と平面内脱色を同時に行う作業はほとんど行われていなかった。
ここでは、平面内と平面内を同時に分割するトランスと、平面内と平面内を同時に接続することを提案する。
- 参考スコア(独自算出の注目度): 22.605286969419485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies 3D low-dose computed tomography (CT) imaging. Although
various deep learning methods were developed in this context, typically they
focus on 2D images and perform denoising due to low-dose and deblurring for
super-resolution separately. Up to date, little work was done for simultaneous
in-plane denoising and through-plane deblurring, which is important to obtain
high-quality 3D CT images with lower radiation and faster imaging speed. For
this task, a straightforward method is to directly train an end-to-end 3D
network. However, it demands much more training data and expensive
computational costs. Here, we propose to link in-plane and through-plane
transformers for simultaneous in-plane denoising and through-plane deblurring,
termed as LIT-Former, which can efficiently synergize in-plane and
through-plane sub-tasks for 3D CT imaging and enjoy the advantages of both
convolution and transformer networks. LIT-Former has two novel designs:
efficient multi-head self-attention modules (eMSM) and efficient convolutional
feedforward networks (eCFN). First, eMSM integrates in-plane 2D self-attention
and through-plane 1D self-attention to efficiently capture global interactions
of 3D self-attention, the core unit of transformer networks. Second, eCFN
integrates 2D convolution and 1D convolution to extract local information of 3D
convolution in the same fashion. As a result, the proposed LIT-Former synergize
these two subtasks, significantly reducing the computational complexity as
compared to 3D counterparts and enabling rapid convergence. Extensive
experimental results on simulated and clinical datasets demonstrate superior
performance over state-of-the-art models. The source code is made available at
https://github.com/hao1635/LIT-Former.
- Abstract(参考訳): 本稿では3次元低線量CT像について検討する。
この文脈で様々な深層学習法が開発されたが、通常は2d画像に焦点を合わせ、低用量化と高分解能化のためにデノイジングを行う。
従来,高画質3次元CT画像の低放射線化と高速撮像速度の確保が重要であった,平面内脱色と平面内脱色を同時に行う作業はほとんど行われていなかった。
このタスクでは、エンドツーエンドの3Dネットワークを直接トレーニングする簡単な方法がある。
しかし、多くのトレーニングデータと高価な計算コストを必要とする。
本稿では、平面内および平面内サブタスクを3次元CT画像に効率的に相乗し、畳み込みと変圧器の両ネットワークの利点を享受するLIT-Formerと呼ばれる、平面内および面内および面内変換器を同時に接続することを提案する。
lit-formerには2つの新しい設計がある: 効率的なマルチヘッドセルフアテンションモジュール(emsm)と効率的な畳み込みフィードフォワードネットワーク(ecfn)。
まず、eMSMは平面内2次元自己アテンションと平面内1次元自己アテンションを統合し、トランスフォーマーネットワークのコアユニットである3次元自己アテンションのグローバルな相互作用を効率的に捉える。
第二に、eCFNは2D畳み込みと1D畳み込みを統合し、同じ方法で3D畳み込みの局所情報を抽出する。
その結果,提案するlit-formerは,これら2つのサブタスクを合成し,計算量を大幅に削減し,高速収束を実現する。
シミュレーションおよび臨床データセットの大規模な実験結果は、最先端モデルよりも優れた性能を示す。
ソースコードはhttps://github.com/hao1635/lit-formerで入手できる。
関連論文リスト
- E2ENet: Dynamic Sparse Feature Fusion for Accurate and Efficient 3D
Medical Image Segmentation [36.367368163120794]
E2ENet(Efficient to Efficient Network)と呼ばれる3次元医用画像分割モデルを提案する。
パラメトリックと計算効率の2つの設計が組み込まれている。
さまざまなリソース制約に対して、正確性と効率性のトレードオフを一貫して達成します。
論文 参考訳(メタデータ) (2023-12-07T22:13:37Z) - UniTR: A Unified and Efficient Multi-Modal Transformer for
Bird's-Eye-View Representation [113.35352122662752]
屋外3次元知覚のためのマルチモーダルバックボーンUniTRを提案する。
UniTRは、統一されたモデリングと共有パラメータで様々なモダリティを処理する。
UniTRは基本的にタスクに依存しないバックボーンであり、異なる3D知覚タスクを自然にサポートする。
論文 参考訳(メタデータ) (2023-08-15T12:13:44Z) - Spatiotemporal Modeling Encounters 3D Medical Image Analysis:
Slice-Shift UNet with Multi-View Fusion [0.0]
本稿では,2次元CNNにおける3次元特徴をエンコードする2次元モデルSlice SHift UNetを提案する。
より正確にマルチビュー機能は、ボリュームの3次元平面に沿って2次元の畳み込みを実行することで協調的に学習される。
提案手法の有効性は,多モード腹部多臓器軸 (AMOS) と Cranial Vault (BTCV) データセットを越えたマルチアトラスラベリング (Multi-Atlas Labeling Beyond the Cranial Vault) で検証した。
論文 参考訳(メタデータ) (2023-07-24T14:53:23Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z) - Multi-scale Transformer Network with Edge-aware Pre-training for
Cross-Modality MR Image Synthesis [52.41439725865149]
クロスモダリティ磁気共鳴(MR)画像合成は、与えられたモダリティから欠落するモダリティを生成するために用いられる。
既存の(教師付き学習)手法は、効果的な合成モデルを訓練するために、多くのペア化されたマルチモーダルデータを必要とすることが多い。
マルチスケールトランスフォーマーネットワーク(MT-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T11:40:40Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - Memory-efficient Segmentation of High-resolution Volumetric MicroCT
Images [11.723370840090453]
本稿では,3次元高解像度画像分割のためのメモリ効率の高いネットワークアーキテクチャを提案する。
このネットワークは、2段階のU-netベースのカスケードフレームワークを通じて、グローバル機能とローカル機能の両方を組み込んでいる。
実験により, セグメント化精度とメモリ効率の両方の観点から, 最先端の3Dセグメンテーション法より優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T16:42:48Z) - RD-Optimized Trit-Plane Coding of Deep Compressed Image Latent Tensors [40.86513649546442]
DPICTは、きめ細かいスケーラビリティをサポートする最初の学習ベースの画像である。
本稿では,トライトプレーンスライシングとRD優先伝送という,DPICTの2つの重要なコンポーネントを効率的に実装する方法について述べる。
論文 参考訳(メタデータ) (2022-03-25T06:33:16Z) - Weakly Supervised Volumetric Image Segmentation with Deformed Templates [80.04326168716493]
対象対象物の表面にスパースな3次元点のセットのみを提供する必要があるという意味で、真に弱い教師付きアプローチを提案する。
監督コストの削減により、3Dの弱スーパービジョンに対する従来のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-07T22:09:34Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。