論文の概要: D-PerceptCT: Deep Perceptual Enhancement for Low-Dose CT Images
- arxiv url: http://arxiv.org/abs/2511.14518v1
- Date: Tue, 18 Nov 2025 14:14:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.149773
- Title: D-PerceptCT: Deep Perceptual Enhancement for Low-Dose CT Images
- Title(参考訳): D-PerceptCTによる低次元CT画像の深部知覚強調
- Authors: Taifour Yousra Nabila, Azeddine Beghdadi, Marie Luong, Zuheng Ming, Habib Zaidi, Faouzi Alaya Cheikh,
- Abstract要約: 低線量CT(Low Dose Computed Tomography, LDCT)は, 診断やその他の臨床業務を支援するためのイメージングソリューションとして広く用いられている。
これは、二次がんの発生リスクを減らすために使用される放射線の量が少ないため、画質が低下することによる。
D-PerceptCTは,Human Visual System (HVS) の重要な原理にインスパイアされた,LDCT画像の高精細化のための新しいアーキテクチャである。
- 参考スコア(独自算出の注目度): 3.982360641359205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low Dose Computed Tomography (LDCT) is widely used as an imaging solution to aid diagnosis and other clinical tasks. However, this comes at the price of a deterioration in image quality due to the low dose of radiation used to reduce the risk of secondary cancer development. While some efficient methods have been proposed to enhance LDCT quality, many overestimate noise and perform excessive smoothing, leading to a loss of critical details. In this paper, we introduce D-PerceptCT, a novel architecture inspired by key principles of the Human Visual System (HVS) to enhance LDCT images. The objective is to guide the model to enhance or preserve perceptually relevant features, thereby providing radiologists with CT images where critical anatomical structures and fine pathological details are perceptu- ally visible. D-PerceptCT consists of two main blocks: 1) a Visual Dual-path Extractor (ViDex), which integrates semantic priors from a pretrained DINOv2 model with local spatial features, allowing the network to incorporate semantic-awareness during enhancement; (2) a Global-Local State-Space block that captures long-range information and multiscale features to preserve the important structures and fine details for diagnosis. In addition, we propose a novel deep perceptual loss, designated as the Deep Perceptual Relevancy Loss Function (DPRLF), which is inspired by human contrast sensitivity, to further emphasize perceptually important features. Extensive experiments on the Mayo2016 dataset demonstrate the effectiveness of D-PerceptCT method for LDCT enhancement, showing better preservation of structural and textural information within LDCT images compared to SOTA methods.
- Abstract(参考訳): 低線量CT(LDCT)は画像診断や他の臨床業務を支援するために広く用いられている。
しかし、これは二次がんの発生リスクを減らすために使用される低線量放射線による画像品質の劣化の価格である。
LDCTの品質を高めるためにいくつかの効率的な手法が提案されているが、多くの過大評価ノイズと過度なスムース化が行われ、重要な詳細が失われている。
本稿では,人間の視覚システム(HVS)の原理にインスパイアされた新しいアーキテクチャであるD-PerceptCTを紹介し,LDCT画像の高精細化を実現する。
本研究の目的は, 重要な解剖学的構造と微妙な病理的詳細が知覚側から見えるCT像を, 放射線医に提供し, 知覚的特徴の増強や保存を指導することである。
D-PerceptCTは2つのブロックから構成される。
1) 事前訓練されたDINOv2モデルのセマンティック先行を局所的な空間的特徴と統合し,拡張中にセマンティック認識を組み込むことが可能なビジュアルデュアルパスエクストラクタ(ViDex),(2) 長距離情報とマルチスケール特徴をキャプチャして,重要な構造と診断のための細部を保存するグローバルローカルステートスペースブロック。
さらに,人間のコントラスト感度にインスパイアされたDPRLF(Deep Perceptual Relevancy Loss Function)を新たに提案し,知覚的に重要な特徴を強調した。
LDCT強調のためのD-PerceptCT法の有効性を示し,SOTA法と比較してLDCT画像中の構造的およびテクスチャ的情報の保存性が向上した。
関連論文リスト
- FoundDiff: Foundational Diffusion Model for Generalizable Low-Dose CT Denoising [55.04342933312839]
本稿では,CT(低線量CT)デノナイズのための基礎拡散モデルFoundDiffを提案する。
FoundDiffは、(i)線量解剖学的知覚と(ii)適応的認知という2段階の戦略を採用している。
まず, 線量および解剖学的知覚を実現するために, 線量および解剖学的対応型コントラスト言語画像事前訓練モデル(DA-CLIP)を開発した。
第2に,適応的および一般化可能な復調を行うために,線量および解剖学的拡散モデル(DA-Diff)を設計する。
論文 参考訳(メタデータ) (2025-08-24T11:03:56Z) - Anatomy-Aware Low-Dose CT Denoising via Pretrained Vision Models and Semantic-Guided Contrastive Learning [12.975922919920393]
ALDENは、事前学習された視覚モデルの意味的特徴と、敵対的かつ対照的な学習を統合する解剖学的認識型LDCT復号法である。
具体的には、解剖学的に認識された識別器を導入し、参照正常線量CT(NDCT)からの階層的意味的特徴を、クロスアテンション機構を介して動的に融合させる。
さらに, LDCT, denoized CT, NDCTのPVM由来の特徴を対比し, 正のペアによる組織特異的パターンの保存, 二重の負のペアによるアーティファクトの抑制により, 解剖学的一貫性を強制する意味誘導型コントラスト学習モジュールを提案する。
論文 参考訳(メタデータ) (2025-08-11T09:17:12Z) - Deep Few-view High-resolution Photon-counting CT at Halved Dose for Extremity Imaging [9.900942764883789]
ニュージーランドの臨床試験において,PCCT画像の半減量と2倍の速度で再現する深層学習に基づくアプローチを提案する。
具体的には、GPUメモリを緩和するパッチベースのボリュームリファインメントネットワークを設計し、合成データを用いたトレーニングネットワークを構築し、モデルベースの反復リファインメントを使用して合成データと臨床データのギャップを埋める。
論文 参考訳(メタデータ) (2024-03-19T00:07:48Z) - WIA-LD2ND: Wavelet-based Image Alignment for Self-supervised Low-Dose CT Denoising [74.14134385961775]
我々は, NDCTデータのみを用いて, WIA-LD2NDと呼ばれる新しい自己監督型CT画像復調法を提案する。
WIA-LD2ND は Wavelet-based Image Alignment (WIA) と Frequency-Aware Multi-scale Loss (FAM) の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2024-03-18T11:20:11Z) - Feature-oriented Deep Learning Framework for Pulmonary Cone-beam CT
(CBCT) Enhancement with Multi-task Customized Perceptual Loss [9.59233136691378]
コーンビームCT(CBCT)は画像誘導放射線治療中に定期的に収集される。
近年, 深層学習に基づくCBCT強調法は, 人工物抑制に有望な成果を上げている。
本稿では,高画質CBCT画像から高画質CTライク画像へ変換する特徴指向ディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-01T10:09:01Z) - SdCT-GAN: Reconstructing CT from Biplanar X-Rays with Self-driven
Generative Adversarial Networks [6.624839896733912]
本稿では,3次元CT画像の再構成のための自己駆動型生成対向ネットワークモデル(SdCT-GAN)を提案する。
識別器に新しいオートエンコーダ構造を導入することにより、画像の詳細により多くの注意を払っている。
LPIPS評価基準は,既存画像よりも微細な輪郭やテクスチャを定量的に評価できる。
論文 参考訳(メタデータ) (2023-09-10T08:16:02Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Total-Body Low-Dose CT Image Denoising using Prior Knowledge Transfer
Technique with Contrastive Regularization Mechanism [4.998352078907441]
放射線線量が少ないと、ノイズやアーティファクトが増加し、臨床診断に大きな影響を及ぼす可能性がある。
高品質な全身低線量CT(LDCT)画像を得るため,従来の深層学習に基づく研究は様々なネットワークアーキテクチャを導入している。
本稿では,NDCT画像から抽出した知識を活用する,新しいタスク内知識伝達手法を提案する。
論文 参考訳(メタデータ) (2021-12-01T06:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。