論文の概要: Bone Structures Extraction and Enhancement in Chest Radiographs via CNN
Trained on Synthetic Data
- arxiv url: http://arxiv.org/abs/2003.10839v1
- Date: Fri, 20 Mar 2020 20:27:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 23:00:04.492777
- Title: Bone Structures Extraction and Enhancement in Chest Radiographs via CNN
Trained on Synthetic Data
- Title(参考訳): 合成データを用いたCNNによる胸部X線像の骨構造抽出と造影
- Authors: Ophir Gozes and Hayit Greenspan
- Abstract要約: U-Net FCNN を用いた胸部X線写真における骨構造抽出のための深層学習に基づく画像処理手法を提案する。
U-Netは、完全に監督された環境でタスクを達成するために訓練された。
本手法は実X線データに適用可能であることを示すとともに,NIH Chest X-Ray-14データセットに結果を表示する。
- 参考スコア(独自算出の注目度): 2.969705152497174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a deep learning-based image processing technique
for extraction of bone structures in chest radiographs using a U-Net FCNN. The
U-Net was trained to accomplish the task in a fully supervised setting. To
create the training image pairs, we employed simulated X-Ray or Digitally
Reconstructed Radiographs (DRR), derived from 664 CT scans belonging to the
LIDC-IDRI dataset. Using HU based segmentation of bone structures in the CT
domain, a synthetic 2D "Bone x-ray" DRR is produced and used for training the
network. For the reconstruction loss, we utilize two loss functions- L1 Loss
and perceptual loss. Once the bone structures are extracted, the original image
can be enhanced by fusing the original input x-ray and the synthesized "Bone
X-ray". We show that our enhancement technique is applicable to real x-ray
data, and display our results on the NIH Chest X-Ray-14 dataset.
- Abstract(参考訳): 本稿では,U-Net FCNNを用いた胸部X線写真における骨構造抽出のための深層学習に基づく画像処理手法を提案する。
U-Netは、完全に監督された環境でタスクを達成するために訓練された。
トレーニング画像ペアを作成するために、LIDC-IDRIデータセットに属する664個のCTスキャンから得られたX線またはデジタル再構成ラジオグラフ(DRR)を用いた。
CT領域における骨構造のHUベースセグメンテーションを用いて、合成2D "Bone x-ray" DRRを作成し、ネットワークのトレーニングに使用する。
復元損失にはl1損失と知覚損失の2つの損失関数を用いる。
骨構造が抽出されると、元の入力x線と合成された「骨x線」とを融合させて元の画像を強化することができる。
本手法は実X線データに適用可能であることを示すとともに,NIH Chest X-Ray-14データセットに結果を表示する。
関連論文リスト
- DiffuX2CT: Diffusion Learning to Reconstruct CT Images from Biplanar X-Rays [41.393567374399524]
条件拡散過程として超スパースX線からのCT再構成をモデル化したDiffuX2CTを提案する。
これにより、DiffuX2CTは2次元X線から3次元構造情報を復元できる構造制御可能な再構成を実現する。
コントリビューションとして,LumbarVと呼ばれる実世界の腰椎CTデータセットを新しいベンチマークとして収集し,X線からのCT再構成の臨床的意義と性能を検証した。
論文 参考訳(メタデータ) (2024-07-18T14:20:04Z) - End-to-End Model-based Deep Learning for Dual-Energy Computed Tomography Material Decomposition [53.14236375171593]
本稿では,定量化のためのエンド・ツー・エンド材料分解(E2E-DEcomp)と呼ばれる深層学習手法を提案する。
AAPMスペクトルCTデータセットにおける直接E2E-DEcomp法の有効性を示す。
論文 参考訳(メタデータ) (2024-06-01T16:20:59Z) - Multi-view X-ray Image Synthesis with Multiple Domain Disentanglement from CT Scans [10.72672892416061]
過剰投与されたX線は、ある程度人間の健康への潜在的なリスクを重畳する。
ボリュームスキャンからX線画像へのデータ駆動アルゴリズムは、ペア化されたX線とボリュームデータの不足によって制限される。
我々は,3つの異なる画像領域からのコンテンツとスタイルのゆがみを利用して,X線画像をエンドツーエンドに合成するCT2X-GANを提案する。
論文 参考訳(メタデータ) (2024-04-18T04:25:56Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Radiative Gaussian Splatting for Efficient X-ray Novel View Synthesis [88.86777314004044]
我々は,X線ノベルビュー可視化のための3次元ガウシアンスプラッティングに基づくフレームワーク,すなわちX-ガウシアンを提案する。
実験の結果,X-Gaussianは6.5dBの最先端手法より優れており,トレーニング時間は15%未満であり,推論速度は73倍であることがわかった。
論文 参考訳(メタデータ) (2024-03-07T00:12:08Z) - CT Reconstruction from Few Planar X-rays with Application towards
Low-resource Radiotherapy [20.353246282326943]
先行データ分布を用いた5次元平面X線観測からCTボリュームを生成する手法を提案する。
臨床に関連のある特徴に焦点をあてるために,本モデルは訓練中に解剖学的指導を活用できる。
本手法は, 標準画素, 構造レベルの基準値から, 近年のスパースCT再建基準値よりも優れている。
論文 参考訳(メタデータ) (2023-08-04T01:17:57Z) - Radiomics-Guided Global-Local Transformer for Weakly Supervised
Pathology Localization in Chest X-Rays [65.88435151891369]
Radiomics-Guided Transformer (RGT)は、テキストトグロバル画像情報と、テキストトグロバル情報とを融合する。
RGTは、画像トランスフォーマーブランチ、放射能トランスフォーマーブランチ、および画像と放射線情報を集約する融合層から構成される。
論文 参考訳(メタデータ) (2022-07-10T06:32:56Z) - Self-Attention Generative Adversarial Network for Iterative
Reconstruction of CT Images [0.9208007322096533]
本研究の目的は、ノイズや不完全なデータから高品質なCT画像を再構成するために、単一のニューラルネットワークを訓練することである。
ネットワークには、データ内の長距離依存関係をモデル化するセルフアテンションブロックが含まれている。
我々のアプローチはCIRCLE GANに匹敵する全体的なパフォーマンスを示し、他の2つのアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-12-23T19:20:38Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z) - Learning Invariant Feature Representation to Improve Generalization
across Chest X-ray Datasets [55.06983249986729]
我々は、トレーニングデータと同じデータセットでテストすると、ディープラーニングモデルが、異なるソースからデータセットでテストされると、パフォーマンスが低下し始めることを示す。
対戦型トレーニング戦略を用いることで、ネットワークはソース不変表現を学習せざるを得ないことを示す。
論文 参考訳(メタデータ) (2020-08-04T07:41:15Z) - End-To-End Convolutional Neural Network for 3D Reconstruction of Knee
Bones From Bi-Planar X-Ray Images [6.645111950779666]
両平面X線画像から直接膝骨を3次元再構成するためのエンドツーエンド畳み込みニューラルネットワーク(CNN)を提案する。
論文 参考訳(メタデータ) (2020-04-02T08:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。