論文の概要: Low-dose CT Denoising with Language-engaged Dual-space Alignment
- arxiv url: http://arxiv.org/abs/2403.06128v1
- Date: Sun, 10 Mar 2024 08:21:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 07:25:06.992586
- Title: Low-dose CT Denoising with Language-engaged Dual-space Alignment
- Title(参考訳): 言語付きデュアルスペースアライメントを用いた低用量CT
- Authors: Zhihao Chen, Tao Chen, Chenhui Wang, Chuang Niu, Ge Wang, Hongming
Shan
- Abstract要約: 本稿では,低用量CTデノーミングモデルの最適化を目的としたLanguage-Engaged Dual-space Alignment Los (LEDA)を提案する。
我々の考えは、大きな言語モデル(LLM)を活用して、連続的な知覚空間と離散的な意味空間の両方において、鑑別CTおよび正常線量CT画像を整列させることである。
LEDAには2つのステップがある: まず、LCM誘導のCTオートエンコーダを事前訓練し、CT画像を連続的な高レベルな特徴にエンコードし、それらをトークン空間に量子化し、セマンティックトークンを生成する。
- 参考スコア(独自算出の注目度): 21.172319554618497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While various deep learning methods were proposed for low-dose computed
tomography (CT) denoising, they often suffer from over-smoothing, blurring, and
lack of explainability. To alleviate these issues, we propose a plug-and-play
Language-Engaged Dual-space Alignment loss (LEDA) to optimize low-dose CT
denoising models. Our idea is to leverage large language models (LLMs) to align
denoised CT and normal dose CT images in both the continuous perceptual space
and discrete semantic space, which is the first LLM-based scheme for low-dose
CT denoising. LEDA involves two steps: the first is to pretrain an LLM-guided
CT autoencoder, which can encode a CT image into continuous high-level features
and quantize them into a token space to produce semantic tokens derived from
the LLM's vocabulary; and the second is to minimize the discrepancy between the
denoised CT images and normal dose CT in terms of both encoded high-level
features and quantized token embeddings derived by the LLM-guided CT
autoencoder. Extensive experimental results on two public LDCT denoising
datasets demonstrate that our LEDA can enhance existing denoising models in
terms of quantitative metrics and qualitative evaluation, and also provide
explainability through language-level image understanding. Source code is
available at https://github.com/hao1635/LEDA.
- Abstract(参考訳): 低線量ct (low-dose computed tomography) では, 様々な深層学習法が提案されているが, 過剰なスムーシング, ぼやけ, 説明可能性の欠如に苦しむことが多い。
これらの問題を緩和するために,低用量CT復調モデルの最適化を目的としたLanguage-Engaged Dual-space Alignment Los (LEDA)を提案する。
我々の考えは,LLMをベースとした低用量CT復調方式として,大規模言語モデル(LLM)を用いて連続的な知覚空間と離散的な意味空間の両領域において,分解CTと正常線量CTの画像を整列させることである。
LEDAは、LCM誘導CTオートエンコーダを事前訓練することで、CT画像を連続した高レベルな特徴に符号化し、それをトークン空間に量子化し、LCMの語彙から派生したセマンティックトークンを生成する。
2つの公開ldctデノイジングデータセットの広範な実験結果から,ledaは定量的指標と質的評価の観点から既存のデノイジングモデルを強化し,言語レベルの画像理解による説明可能性を提供することができた。
ソースコードはhttps://github.com/hao1635/LEDAで入手できる。
関連論文リスト
- DenoMamba: A fused state-space model for low-dose CT denoising [6.468495781611433]
低線量CT(LDCT)は放射線曝露に伴う潜在的なリスクを低くする。
LDCT denoisingは、基礎となる組織信号からの線量減少によって引き起こされるノイズを分離するために、データ駆動画像の事前学習を行うニューラルネットワークモデルに基づいている。
DenoMambaは、状態空間モデリング(SSM)に基づく、医療画像の短距離および長距離コンテキストを効率的にキャプチャする新しいデノナイジング手法である。
論文 参考訳(メタデータ) (2024-09-19T21:32:07Z) - WIA-LD2ND: Wavelet-based Image Alignment for Self-supervised Low-Dose CT Denoising [74.14134385961775]
我々は, NDCTデータのみを用いて, WIA-LD2NDと呼ばれる新しい自己監督型CT画像復調法を提案する。
WIA-LD2ND は Wavelet-based Image Alignment (WIA) と Frequency-Aware Multi-scale Loss (FAM) の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2024-03-18T11:20:11Z) - Gadolinium dose reduction for brain MRI using conditional deep learning [66.99830668082234]
これらの手法の主な課題は、コントラスト強調の正確な予測と現実的な画像の合成である。
コントラスト前の画像対とコントラスト後の画像対のサブトラクション画像に符号化されたコントラスト信号を利用することで、両課題に対処する。
各種スキャナー,フィールド強度,コントラストエージェントを用いた合成および実データに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-03-06T08:35:29Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - Self-supervised Physics-based Denoising for Computed Tomography [2.2758845733923687]
CT(Computed Tomography)は、患者に固有のX線放射によるリスクを課す。
放射線線量を下げると健康リスクが低下するが、ノイズが増し、組織のコントラストが低下し、CT画像のアーティファクトが生じる。
現代のディープラーニングノイズ抑圧法は、この課題を緩和するが、訓練には低ノイズ高ノイズCT画像ペアが必要である。
我々は,高用量CT投影地真実像を使わずにトレーニング可能な,ノイズ2ノイズD-ANMの自己管理手法を新たに導入した。
論文 参考訳(メタデータ) (2022-11-01T20:58:50Z) - CTformer: Convolution-free Token2Token Dilated Vision Transformer for
Low-dose CT Denoising [11.67382017798666]
低線量CT(LDCT)はCT研究において重要な問題である。
視覚変換器は畳み込みニューラルネットワーク(CNN)よりも優れた特徴表現能力を示している
低用量CT用コンボリューションフリーToken2Token Dilated Vision Transformerを提案する。
論文 参考訳(メタデータ) (2022-02-28T02:58:16Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - TED-net: Convolution-free T2T Vision Transformer-based Encoder-decoder
Dilation network for Low-dose CT Denoising [5.2227817530931535]
LDCT復号アルゴリズムのファミリを充実させるために,畳み込みフリーの視覚変換器ベースデコーダディレーションネットワーク(TED-net)を提案する。
AAPM-MayoクリニックLDCTグランドチャレンジデータセットを用いて,本モデルの評価を行った。
論文 参考訳(メタデータ) (2021-06-08T19:26:55Z) - Unpaired Learning of Deep Image Denoising [80.34135728841382]
本稿では,自己指導型学習と知識蒸留を取り入れた2段階の手法を提案する。
自己教師型学習では,実雑音の画像のみから視覚を学習するための拡張型盲点ネットワーク(D-BSN)を提案する。
実験の結果,本手法は合成ノイズ画像と実世界のノイズ画像の両方で良好に機能することがわかった。
論文 参考訳(メタデータ) (2020-08-31T16:22:40Z) - Deep Q-Network-Driven Catheter Segmentation in 3D US by Hybrid
Constrained Semi-Supervised Learning and Dual-UNet [74.22397862400177]
本稿では,教師付き学習手法よりも少ないアノテーションを要求できる新しいカテーテルセグメンテーション手法を提案する。
提案手法では,Voxelレベルのアノテーションを避けるために,深層Q学習を事前局所化ステップとみなす。
検出されたカテーテルでは、パッチベースのDual-UNetを使用してカテーテルを3Dボリュームデータに分割する。
論文 参考訳(メタデータ) (2020-06-25T21:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。