論文の概要: LIT-Former: Linking In-plane and Through-plane Transformers for
Simultaneous CT Image Denoising and Deblurring
- arxiv url: http://arxiv.org/abs/2302.10630v1
- Date: Tue, 21 Feb 2023 12:43:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 15:19:17.204626
- Title: LIT-Former: Linking In-plane and Through-plane Transformers for
Simultaneous CT Image Denoising and Deblurring
- Title(参考訳): lit-former:ct画像のデノイジングとデブラリングのための面内トランスフォーマーと面内トランスフォーマーのリンク
- Authors: Zhihao Chen, Chuang Niu, Ge Wang, Hongming Shan
- Abstract要約: 本稿では3次元低線量CT像について検討する。
これまでのところ、機内脱臭と機内脱臭を同時に行う作業はほとんど行われていなかった。
そこで本研究では,平面内および平面内コンバータを連結して,平面内と平面内を同時に遮蔽する手法を提案する。
- 参考スコア(独自算出の注目度): 20.61781662157166
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper studies 3D low-dose computed tomography (CT) imaging. Although
various deep learning methods were developed in this context, typically they
perform denoising due to low-dose and deblurring for super-resolution
separately. Up to date, little work was done for simultaneous in-plane
denoising and through-plane deblurring, which is important to improve clinical
CT images. For this task, a straightforward method is to directly train an
end-to-end 3D network. However, it demands much more training data and
expensive computational costs. Here, we propose to link in-plane and
through-plane transformers for simultaneous in-plane denoising and
through-plane deblurring, termed as LIT-Former, which can efficiently synergize
in-plane and through-plane sub-tasks for 3D CT imaging and enjoy the advantages
of both convolution and transformer networks. LIT-Former has two novel designs:
efficient multi-head self-attention modules (eMSM) and efficient convolutional
feed-forward networks (eCFN). First, eMSM integrates in-plane 2D self-attention
and through-plane 1D self-attention to efficiently capture global interactions
of 3D self-attention, the core unit of transformer networks. Second, eCFN
integrates 2D convolution and 1D convolution to extract local information of 3D
convolution in the same fashion. As a result, the proposed LIT-Former
synergizes these two sub-tasks, significantly reducing the computational
complexity as compared to 3D counterparts and enabling rapid convergence.
Extensive experimental results on simulated and clinical datasets demonstrate
superior performance over state-of-the-art models.
- Abstract(参考訳): 本稿では3次元低線量CT像について検討する。
この文脈で様々な深層学習法が開発されたが、通常は低線量化と超分解能のデブロアリングによりデノナイジングを行う。
これまでは, 頭蓋内デノイジングと面内デブラリングを同時に行う作業はほとんど行われておらず, 臨床ct画像の改善に重要である。
このタスクでは、エンドツーエンドの3Dネットワークを直接トレーニングする簡単な方法がある。
しかし、多くのトレーニングデータと高価な計算コストを必要とする。
本稿では、平面内および平面内サブタスクを3次元CT画像に効率的に相乗し、畳み込みと変圧器の両ネットワークの利点を享受するLIT-Formerと呼ばれる、平面内および面内および面内変換器を同時に接続することを提案する。
lit-formerには、効率的なマルチヘッドセルフアテンションモジュール(emsm)と効率的な畳み込みフィードフォワードネットワーク(ecfn)という2つの新しい設計がある。
まず、eMSMは平面内2次元自己アテンションと平面内1次元自己アテンションを統合し、トランスフォーマーネットワークのコアユニットである3次元自己アテンションのグローバルな相互作用を効率的に捉える。
第二に、eCFNは2D畳み込みと1D畳み込みを統合し、同じ方法で3D畳み込みの局所情報を抽出する。
その結果、LIT-Formerはこれらの2つのサブタスクを相乗化し、計算複雑性を3Dと比較して著しく低減し、迅速な収束を可能にする。
シミュレーションおよび臨床データセットの大規模な実験結果は、最先端モデルよりも優れた性能を示す。
関連論文リスト
- E2ENet: Dynamic Sparse Feature Fusion for Accurate and Efficient 3D
Medical Image Segmentation [36.367368163120794]
E2ENet(Efficient to Efficient Network)と呼ばれる3次元医用画像分割モデルを提案する。
パラメトリックと計算効率の2つの設計が組み込まれている。
さまざまなリソース制約に対して、正確性と効率性のトレードオフを一貫して達成します。
論文 参考訳(メタデータ) (2023-12-07T22:13:37Z) - UniTR: A Unified and Efficient Multi-Modal Transformer for
Bird's-Eye-View Representation [113.35352122662752]
屋外3次元知覚のためのマルチモーダルバックボーンUniTRを提案する。
UniTRは、統一されたモデリングと共有パラメータで様々なモダリティを処理する。
UniTRは基本的にタスクに依存しないバックボーンであり、異なる3D知覚タスクを自然にサポートする。
論文 参考訳(メタデータ) (2023-08-15T12:13:44Z) - Spatiotemporal Modeling Encounters 3D Medical Image Analysis:
Slice-Shift UNet with Multi-View Fusion [0.0]
本稿では,2次元CNNにおける3次元特徴をエンコードする2次元モデルSlice SHift UNetを提案する。
より正確にマルチビュー機能は、ボリュームの3次元平面に沿って2次元の畳み込みを実行することで協調的に学習される。
提案手法の有効性は,多モード腹部多臓器軸 (AMOS) と Cranial Vault (BTCV) データセットを越えたマルチアトラスラベリング (Multi-Atlas Labeling Beyond the Cranial Vault) で検証した。
論文 参考訳(メタデータ) (2023-07-24T14:53:23Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z) - Multi-scale Transformer Network with Edge-aware Pre-training for
Cross-Modality MR Image Synthesis [52.41439725865149]
クロスモダリティ磁気共鳴(MR)画像合成は、与えられたモダリティから欠落するモダリティを生成するために用いられる。
既存の(教師付き学習)手法は、効果的な合成モデルを訓練するために、多くのペア化されたマルチモーダルデータを必要とすることが多い。
マルチスケールトランスフォーマーネットワーク(MT-Net)を提案する。
論文 参考訳(メタデータ) (2022-12-02T11:40:40Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - Memory-efficient Segmentation of High-resolution Volumetric MicroCT
Images [11.723370840090453]
本稿では,3次元高解像度画像分割のためのメモリ効率の高いネットワークアーキテクチャを提案する。
このネットワークは、2段階のU-netベースのカスケードフレームワークを通じて、グローバル機能とローカル機能の両方を組み込んでいる。
実験により, セグメント化精度とメモリ効率の両方の観点から, 最先端の3Dセグメンテーション法より優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T16:42:48Z) - RD-Optimized Trit-Plane Coding of Deep Compressed Image Latent Tensors [40.86513649546442]
DPICTは、きめ細かいスケーラビリティをサポートする最初の学習ベースの画像である。
本稿では,トライトプレーンスライシングとRD優先伝送という,DPICTの2つの重要なコンポーネントを効率的に実装する方法について述べる。
論文 参考訳(メタデータ) (2022-03-25T06:33:16Z) - Weakly Supervised Volumetric Image Segmentation with Deformed Templates [80.04326168716493]
対象対象物の表面にスパースな3次元点のセットのみを提供する必要があるという意味で、真に弱い教師付きアプローチを提案する。
監督コストの削減により、3Dの弱スーパービジョンに対する従来のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-07T22:09:34Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。