論文の概要: BS-Diff: Effective Bone Suppression Using Conditional Diffusion Models
from Chest X-Ray Images
- arxiv url: http://arxiv.org/abs/2311.15328v2
- Date: Tue, 27 Feb 2024 01:23:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 21:52:14.165201
- Title: BS-Diff: Effective Bone Suppression Using Conditional Diffusion Models
from Chest X-Ray Images
- Title(参考訳): BS-Diff:胸部X線画像からの条件拡散モデルを用いた効果的な骨抑制
- Authors: Zhanghao Chen, Yifei Sun, Wenjian Qin, Ruiquan Ge, Cheng Pan, Wenming
Deng, Zhou Liu, Wenwen Min, Ahmed Elazab, Xiang Wan, Changmiao Wang
- Abstract要約: 胸部X線(CXR)は肺検診の低用量モダリティとして一般的に用いられる。
肺領域の約75%は骨と重なり、疾患の検出と診断を妨げている。
骨抑制技術が導入されたが、現在の病院の二重エネルギーサブトラクションイメージング技術は、高価な機器と高放射線にさらされる被検体を必要としている。
本稿では,U-Netアーキテクチャを備えた条件拡散モデルと,オートエンコーダを組み込むシンプルな拡張モジュールを備える骨抑制フレームワークBS-Diffを提案する。
- 参考スコア(独自算出の注目度): 21.19843479423806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chest X-rays (CXRs) are commonly utilized as a low-dose modality for lung
screening. Nonetheless, the efficacy of CXRs is somewhat impeded, given that
approximately 75% of the lung area overlaps with bone, which in turn hampers
the detection and diagnosis of diseases. As a remedial measure, bone
suppression techniques have been introduced. The current dual-energy
subtraction imaging technique in the clinic requires costly equipment and
subjects being exposed to high radiation. To circumvent these issues, deep
learning-based image generation algorithms have been proposed. However,
existing methods fall short in terms of producing high-quality images and
capturing texture details, particularly with pulmonary vessels. To address
these issues, this paper proposes a new bone suppression framework, termed
BS-Diff, that comprises a conditional diffusion model equipped with a U-Net
architecture and a simple enhancement module to incorporate an autoencoder. Our
proposed network cannot only generate soft tissue images with a high bone
suppression rate but also possesses the capability to capture fine image
details. Additionally, we compiled the largest dataset since 2010, including
data from 120 patients with high-definition, high-resolution paired CXRs and
soft tissue images collected by our affiliated hospital. Extensive experiments,
comparative analyses, ablation studies, and clinical evaluations indicate that
the proposed BS-Diff outperforms several bone-suppression models across
multiple metrics. Our code can be accessed at
https://github.com/Benny0323/BS-Diff.
- Abstract(参考訳): 胸部X線(CXR)は肺検診の低用量モードとして一般的に用いられる。
しかし、肺領域の約75%が骨と重なり、疾患の検出と診断を妨げているため、CXRsの有効性は幾らか阻害されている。
改善策として骨抑制技術が導入された。
現在の病院のデュアルエネルギーサブトラクションイメージング技術では、高価な機器と被写体が高放射線にさらされる必要がある。
これらの問題を回避すべく,深層学習に基づく画像生成アルゴリズムが提案されている。
しかし, 既存の手法では, 高品質な画像が得られず, 特に肺血管のテクスチャの細部が捉えられにくい。
これらの課題に対処するために,U-Netアーキテクチャとオートエンコーダを組み込むシンプルな拡張モジュールを備えた条件拡散モデルを備えた骨抑制フレームワークであるBS-Diffを提案する。
提案するネットワークは骨抑制率の高い軟部組織像を生成するだけでなく,微細な画像の詳細を捉える能力も備えている。
また,2010年以降で最大のデータセットを収集し,高精細度CXRと軟部組織像を関連病院で収集した120例のデータを収集した。
広範囲な実験、比較分析、アブレーション研究、臨床評価は、提案されたBS-Diffが複数の指標でいくつかの骨圧モデルより優れていることを示している。
私たちのコードはhttps://github.com/Benny0323/BS-Diffでアクセスできます。
関連論文リスト
- AttCDCNet: Attention-enhanced Chest Disease Classification using X-Ray Images [0.0]
X線画像診断のための新しい検出モデルtextbfAttCDCNetを提案する。
提案されたモデルは、新型コロナウイルスのラジオグラフィーデータセットでそれぞれ94.94%、95.14%、94.53%の精度、精度、リコールを達成した。
論文 参考訳(メタデータ) (2024-10-20T16:08:20Z) - BLS-GAN: A Deep Layer Separation Framework for Eliminating Bone Overlap in Conventional Radiographs [4.295284976294471]
従来のX線写真では、骨の重なり合いが一般的であり、骨特性の正確な評価を妨げる可能性がある。
本研究は,高品質な骨層画像を生成する骨層分離GAN(BLS-GAN)フレームワークを提案する。
生成された画像はビジュアルチューリングテストに合格し、下流タスクのパフォーマンスが向上した。
論文 参考訳(メタデータ) (2024-09-11T14:34:17Z) - Low-Resolution Chest X-ray Classification via Knowledge Distillation and Multi-task Learning [46.75992018094998]
胸部X線(CXR)を低分解能で診断する上での課題について検討した。
高分解能CXRイメージングは、結節や不透明など、小さなが重要な異常を識別するために重要である。
本稿では,MLCAK(Multilevel Collaborative Attention Knowledge)法を提案する。
論文 参考訳(メタデータ) (2024-05-22T06:10:54Z) - Swin-Tempo: Temporal-Aware Lung Nodule Detection in CT Scans as Video
Sequences Using Swin Transformer-Enhanced UNet [2.7547288571938795]
本稿では、畳み込みニューラルネットワークと視覚変換器の長所を利用する革新的なモデルを提案する。
ビデオ中の物体検出にインスパイアされた各3次元CT画像をビデオとして扱い、個々のスライスをフレームとして、肺結節をオブジェクトとして扱い、時系列アプリケーションを可能にする。
論文 参考訳(メタデータ) (2023-10-05T07:48:55Z) - Revisiting Computer-Aided Tuberculosis Diagnosis [56.80999479735375]
結核(TB)は世界的な健康上の脅威であり、毎年何百万人もの死者を出している。
深層学習を用いたコンピュータ支援結核診断 (CTD) は有望であるが, 限られたトレーニングデータによって進行が妨げられている。
結核X線(TBX11K)データセットは11,200個の胸部X線(CXR)画像とそれに対応するTB領域のバウンディングボックスアノテーションを含む。
このデータセットは、高品質なCTDのための洗練された検出器のトレーニングを可能にする。
論文 参考訳(メタデータ) (2023-07-06T08:27:48Z) - Image Synthesis with Disentangled Attributes for Chest X-Ray Nodule
Augmentation and Detection [52.93342510469636]
肺癌早期検診では胸部X線像の肺結節検出が一般的である。
ディープラーニングに基づくコンピュータ支援診断(CAD)システムは、CXRの結節スクリーニングのために放射線科医をサポートすることができる。
このようなデータセットの可用性を損なうため,データ拡張のために肺結節合成法を提案する。
論文 参考訳(メタデータ) (2022-07-19T16:38:48Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Debiasing pipeline improves deep learning model generalization for X-ray
based lung nodule detection [11.228544549618068]
肺がんは世界中でがん死の主要な原因であり、予後は早期診断に依存している。
胸部X線像を均質化し,除染する画像前処理パイプラインは,内部分類と外部一般化の両方を改善することができることを示す。
進化的プルーニング機構は、一般に利用可能な肺結節X線データセットから最も情報性の高い画像に基づいて結節検出深層学習モデルを訓練するために用いられる。
論文 参考訳(メタデータ) (2022-01-24T10:08:07Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。