論文の概要: ASCON: Anatomy-aware Supervised Contrastive Learning Framework for
Low-dose CT Denoising
- arxiv url: http://arxiv.org/abs/2307.12225v1
- Date: Sun, 23 Jul 2023 04:36:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 17:08:15.255170
- Title: ASCON: Anatomy-aware Supervised Contrastive Learning Framework for
Low-dose CT Denoising
- Title(参考訳): ASCON:低用量CTデノーミングのための解剖学的監視型コントラスト学習フレームワーク
- Authors: Zhihao Chen, Qi Gao, Yi Zhang, Hongming Shan
- Abstract要約: 我々は,低用量CTにおける解剖学的意味論を探求するために,ASCONと呼ばれる新しい解剖学的適応型コントラスト学習フレームワークを提案する。
当科における低用量CTの解剖学的解釈性について検討した。
- 参考スコア(独自算出の注目度): 23.274928463320986
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While various deep learning methods have been proposed for low-dose computed
tomography (CT) denoising, most of them leverage the normal-dose CT images as
the ground-truth to supervise the denoising process. These methods typically
ignore the inherent correlation within a single CT image, especially the
anatomical semantics of human tissues, and lack the interpretability on the
denoising process. In this paper, we propose a novel Anatomy-aware Supervised
CONtrastive learning framework, termed ASCON, which can explore the anatomical
semantics for low-dose CT denoising while providing anatomical
interpretability. The proposed ASCON consists of two novel designs: an
efficient self-attention-based U-Net (ESAU-Net) and a multi-scale anatomical
contrastive network (MAC-Net). First, to better capture global-local
interactions and adapt to the high-resolution input, an efficient ESAU-Net is
introduced by using a channel-wise self-attention mechanism. Second, MAC-Net
incorporates a patch-wise non-contrastive module to capture inherent anatomical
information and a pixel-wise contrastive module to maintain intrinsic
anatomical consistency. Extensive experimental results on two public low-dose
CT denoising datasets demonstrate superior performance of ASCON over
state-of-the-art models. Remarkably, our ASCON provides anatomical
interpretability for low-dose CT denoising for the first time. Source code is
available at https://github.com/hao1635/ASCON.
- Abstract(参考訳): 低線量ct(low-dose computed tomography)では,様々な深層学習法が提案されているが,そのほとんどが正常線量ct画像を用いてデノージングプロセスを監視する。
これらの方法は通常、単一のct画像、特に人間の組織の解剖学的意味論における固有の相関を無視し、分別過程における解釈可能性に欠ける。
本稿では,低用量ctデノーミングのための解剖学的意味論を探索し,解剖学的解釈可能性を提供しながら,教師付きコントラスト学習フレームワークasconを提案する。
提案したASCONは、効率的な自己注意に基づくU-Net(ESAU-Net)とマルチスケールの解剖学的コントラストネットワーク(MAC-Net)の2つの新しい設計で構成されている。
まず,グローバルな対話をよりよく捉え,高分解能な入力に適応させるために,チャネルワイド自己認識機構を用いて効率的なESAU-Netを導入する。
第2に、MAC-Netは固有の解剖情報を取得するパッチワイド非競合モジュールと、固有の解剖学的一貫性を維持するピクセルワイドコントラストモジュールを組み込んでいる。
2つの公開低用量CTデノゲーションデータセットの大規模な実験結果から,ASCONの最先端モデルよりも優れた性能を示した。
特筆すべきは,ASCONが低用量CTに初めて解剖学的解釈性を提供することだ。
ソースコードはhttps://github.com/hao1635/ASCONで入手できる。
関連論文リスト
- WIA-LD2ND: Wavelet-based Image Alignment for Self-supervised Low-Dose CT Denoising [74.14134385961775]
我々は, NDCTデータのみを用いて, WIA-LD2NDと呼ばれる新しい自己監督型CT画像復調法を提案する。
WIA-LD2ND は Wavelet-based Image Alignment (WIA) と Frequency-Aware Multi-scale Loss (FAM) の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2024-03-18T11:20:11Z) - Low-dose CT Denoising with Language-engaged Dual-space Alignment [21.172319554618497]
本稿では,低用量CTデノーミングモデルの最適化を目的としたLanguage-Engaged Dual-space Alignment Los (LEDA)を提案する。
我々の考えは、大きな言語モデル(LLM)を活用して、連続的な知覚空間と離散的な意味空間の両方において、鑑別CTおよび正常線量CT画像を整列させることである。
LEDAには2つのステップがある: まず、LCM誘導のCTオートエンコーダを事前訓練し、CT画像を連続的な高レベルな特徴にエンコードし、それらをトークン空間に量子化し、セマンティックトークンを生成する。
論文 参考訳(メタデータ) (2024-03-10T08:21:50Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - CTformer: Convolution-free Token2Token Dilated Vision Transformer for
Low-dose CT Denoising [11.67382017798666]
低線量CT(LDCT)はCT研究において重要な問題である。
視覚変換器は畳み込みニューラルネットワーク(CNN)よりも優れた特徴表現能力を示している
低用量CT用コンボリューションフリーToken2Token Dilated Vision Transformerを提案する。
論文 参考訳(メタデータ) (2022-02-28T02:58:16Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - Total-Body Low-Dose CT Image Denoising using Prior Knowledge Transfer
Technique with Contrastive Regularization Mechanism [4.998352078907441]
放射線線量が少ないと、ノイズやアーティファクトが増加し、臨床診断に大きな影響を及ぼす可能性がある。
高品質な全身低線量CT(LDCT)画像を得るため,従来の深層学習に基づく研究は様々なネットワークアーキテクチャを導入している。
本稿では,NDCT画像から抽出した知識を活用する,新しいタスク内知識伝達手法を提案する。
論文 参考訳(メタデータ) (2021-12-01T06:46:38Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Symmetry-Enhanced Attention Network for Acute Ischemic Infarct
Segmentation with Non-Contrast CT Images [50.55978219682419]
急性虚血性梗塞セグメンテーションのための対称性増強型注意ネットワーク(SEAN)を提案する。
提案するネットワークは、入力されたCT画像を、脳組織が左右対称な標準空間に自動的に変換する。
提案したSEANは、ダイス係数と梗塞局所化の両方の観点から、対称性に基づく最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-10-11T07:13:26Z) - DU-GAN: Generative Adversarial Networks with Dual-Domain U-Net Based
Discriminators for Low-Dose CT Denoising [22.351540738281265]
LDCT画像の画質向上のために, ディープラーニング技術が導入されている。
本稿では, DA-GAN と呼ばれる新しい手法を提案する。この手法は, GANs フレームワークにおける U-Net ベースの識別器を用いて, 正規化画像と正規化画像のグローバル・ローカル差分を学習する。
論文 参考訳(メタデータ) (2021-08-24T14:37:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。