論文の概要: CTformer: Convolution-free Token2Token Dilated Vision Transformer for
Low-dose CT Denoising
- arxiv url: http://arxiv.org/abs/2202.13517v1
- Date: Mon, 28 Feb 2022 02:58:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 08:14:03.691801
- Title: CTformer: Convolution-free Token2Token Dilated Vision Transformer for
Low-dose CT Denoising
- Title(参考訳): CTformer:低用量CT用コンボリューションフリーのToken2TokenDilated Vision Transformer
- Authors: Dayang Wang, Fenglei Fan, Zhan Wu, Rui Liu, Fei Wang, Hengyong Yu
- Abstract要約: 低線量CT(LDCT)はCT研究において重要な問題である。
視覚変換器は畳み込みニューラルネットワーク(CNN)よりも優れた特徴表現能力を示している
低用量CT用コンボリューションフリーToken2Token Dilated Vision Transformerを提案する。
- 参考スコア(独自算出の注目度): 11.67382017798666
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Low-dose computed tomography (LDCT) denoising is an important problem in CT
research. Compared to the normal dose CT (NDCT), LDCT images are subjected to
severe noise and artifacts. Recently in many studies, vision transformers have
shown superior feature representation ability over convolutional neural
networks (CNNs). However, unlike CNNs, the potential of vision transformers in
LDCT denoising was little explored so far. To fill this gap, we propose a
Convolution-free Token2Token Dilated Vision Transformer for low-dose CT
denoising. The CTformer uses a more powerful token rearrangement to encompass
local contextual information and thus avoids convolution. It also dilates and
shifts feature maps to capture longer-range interaction. We interpret the
CTformer by statically inspecting patterns of its internal attention maps and
dynamically tracing the hierarchical attention flow with an explanatory graph.
Furthermore, an overlapped inference mechanism is introduced to effectively
eliminate the boundary artifacts that are common for encoder-decoder-based
denoising models. Experimental results on Mayo LDCT dataset suggest that the
CTformer outperforms the state-of-the-art denoising methods with a low
computation overhead.
- Abstract(参考訳): 低線量CT(LDCT)はCT研究において重要な問題である。
LDCT画像は, 正常線量CT (NDCT) と比較して, 強いノイズやアーティファクトを呈する。
近年の多くの研究で、視覚トランスフォーマーは畳み込みニューラルネットワーク(cnns)よりも優れた特徴表現能力を示している。
しかし、cnnとは異なり、ldctでの視覚トランスフォーマーの可能性はほとんど研究されなかった。
このギャップを埋めるために,低線量CT用コンボリューションフリーのToken2Token Dilated Vision Transformerを提案する。
CTformerは、より強力なトークン再構成を使用して、ローカルなコンテキスト情報を包含し、畳み込みを避ける。
また、長範囲のインタラクションをキャプチャするためにフィーチャーマップを拡張およびシフトする。
内部アテンションマップのパターンを静的に検査し,説明グラフを用いて階層的アテンションフローを動的に追跡することでctformerを解釈する。
さらに、エンコーダデコーダベースのデノイジングモデルに共通する境界アーティファクトを効果的に排除するために重複推論機構が導入された。
Mayo LDCTデータセットの実験結果から、CTformerは計算オーバーヘッドの少ない最先端の復調法よりも優れていることが示唆された。
関連論文リスト
- WIA-LD2ND: Wavelet-based Image Alignment for Self-supervised Low-Dose CT Denoising [74.14134385961775]
我々は, NDCTデータのみを用いて, WIA-LD2NDと呼ばれる新しい自己監督型CT画像復調法を提案する。
WIA-LD2ND は Wavelet-based Image Alignment (WIA) と Frequency-Aware Multi-scale Loss (FAM) の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2024-03-18T11:20:11Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - The role of noise in denoising models for anomaly detection in medical
images [62.0532151156057]
病理脳病変は脳画像に多彩な外観を示す。
正規データのみを用いた教師なし異常検出手法が提案されている。
空間分解能の最適化と雑音の大きさの最適化により,異なるモデル学習体制の性能が向上することを示す。
論文 参考訳(メタデータ) (2023-01-19T21:39:38Z) - Self Supervised Low Dose Computed Tomography Image Denoising Using
Invertible Network Exploiting Inter Slice Congruence [20.965610734723636]
LDCT画像とNDCT画像のペア化の必要性を軽減するために, 自己監督型低用量CTデノベーション法を提案する。
我々は、ノイズスライスと隣接する2つのノイズスライスの平均の2乗距離を最小化するために、可逆ニューラルネットワークを訓練した。
論文 参考訳(メタデータ) (2022-11-03T07:16:18Z) - Self-supervised Physics-based Denoising for Computed Tomography [2.2758845733923687]
CT(Computed Tomography)は、患者に固有のX線放射によるリスクを課す。
放射線線量を下げると健康リスクが低下するが、ノイズが増し、組織のコントラストが低下し、CT画像のアーティファクトが生じる。
現代のディープラーニングノイズ抑圧法は、この課題を緩和するが、訓練には低ノイズ高ノイズCT画像ペアが必要である。
我々は,高用量CT投影地真実像を使わずにトレーニング可能な,ノイズ2ノイズD-ANMの自己管理手法を新たに導入した。
論文 参考訳(メタデータ) (2022-11-01T20:58:50Z) - Masked Autoencoders for Low dose CT denoising [9.575051352192697]
Masked Autoencoders (MAE) は, 変圧器のラベルフリー自己調整手法として提案されている。
我々は,従来のエンコーダ・デコーダ学習モデルを再設計し,これをLDCT復調問題に適用する。
論文 参考訳(メタデータ) (2022-10-10T18:27:58Z) - Multi-stage image denoising with the wavelet transform [125.2251438120701]
深部畳み込みニューラルネットワーク(Deep Convolutional Neural Network, CNN)は、正確な構造情報を自動マイニングすることで、画像の復調に使用される。
動的畳み込みブロック(DCB)、2つのカスケードウェーブレット変換および拡張ブロック(WEB)、残留ブロック(RB)の3段階を経由した、MWDCNNによるCNNの多段階化を提案する。
論文 参考訳(メタデータ) (2022-09-26T03:28:23Z) - Patch-wise Deep Metric Learning for Unsupervised Low-Dose CT Denoising [33.706959549595496]
パッチワイド・ディープ・メトリック・ラーニングを用いた低用量CT再構成のための新しい教師なし学習手法を提案する。
鍵となる考え方は、同じ解剖学的構造を共有するイメージパッチの正のペアを引いて、互いに同じノイズレベルを持つ負のペアをプッシュすることで、埋め込み空間を学習することである。
実験結果から,CT数シフトを伴わない高品質な復号化画像の作成において,深度検定学習が重要な役割を担っていることが確認された。
論文 参考訳(メタデータ) (2022-07-06T00:58:11Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - TED-net: Convolution-free T2T Vision Transformer-based Encoder-decoder
Dilation network for Low-dose CT Denoising [5.2227817530931535]
LDCT復号アルゴリズムのファミリを充実させるために,畳み込みフリーの視覚変換器ベースデコーダディレーションネットワーク(TED-net)を提案する。
AAPM-MayoクリニックLDCTグランドチャレンジデータセットを用いて,本モデルの評価を行った。
論文 参考訳(メタデータ) (2021-06-08T19:26:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。