論文の概要: XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors
- arxiv url: http://arxiv.org/abs/2012.02407v1
- Date: Fri, 4 Dec 2020 05:08:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 20:35:01.356664
- Title: XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors
- Title(参考訳): XraySyn:CTによる1枚のX線写真からのリアルなビュー合成
- Authors: Cheng Peng, Haofu Liao, Gina Wong, Jiebo Luo, Shaohua Kevin Zhou, Rama
Chellappa
- Abstract要約: 放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
- 参考スコア(独自算出の注目度): 118.27130593216096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A radiograph visualizes the internal anatomy of a patient through the use of
X-ray, which projects 3D information onto a 2D plane. Hence, radiograph
analysis naturally requires physicians to relate the prior about 3D human
anatomy to 2D radiographs. Synthesizing novel radiographic views in a small
range can assist physicians in interpreting anatomy more reliably; however,
radiograph view synthesis is heavily ill-posed, lacking in paired data, and
lacking in differentiable operations to leverage learning-based approaches. To
address these problems, we use Computed Tomography (CT) for radiograph
simulation and design a differentiable projection algorithm, which enables us
to achieve geometrically consistent transformations between the radiography and
CT domains. Our method, XraySyn, can synthesize novel views on real radiographs
through a combination of realistic simulation and finetuning on real
radiographs. To the best of our knowledge, this is the first work on radiograph
view synthesis. We show that by gaining an understanding of radiography in 3D
space, our method can be applied to radiograph bone extraction and suppression
without groundtruth bone labels.
- Abstract(参考訳): 放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
そのため、ラジオグラフィー分析では、医師が3Dヒト解剖学と2Dラジオグラフィーを関連付ける必要がある。
少ない範囲で新しいラジオグラフィックビューを合成することは、医師が解剖学をより確実に解釈するのに役立つが、ラジオグラフビューの合成は非常に不適切であり、ペアデータに欠けており、学習に基づくアプローチを活用するために微分可能な操作が欠如している。
これらの問題に対処するために,CT(Computerd Tomography)をラジオグラフィシミュレーションに使用し,識別可能なプロジェクションアルゴリズムを設計することにより,ラジオグラフィとCTドメイン間の幾何学的一貫した変換を実現する。
XraySynはリアルなシミュレーションとリアルなラジオグラフィーの微調整を組み合わせることで、リアルなラジオグラフィーの新たなビューを合成することができる。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
また, 3次元空間におけるx線撮影の理解を得ることにより, 接地骨ラベルを使わずに, 放射線画像の抽出と抑制に応用できることを示した。
関連論文リスト
- 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - Coarse-Fine View Attention Alignment-Based GAN for CT Reconstruction from Biplanar X-Rays [22.136553745483305]
本稿では,両平面ビューから抽出した特徴を組み合わせるために,新しい注目インフォームド粗視視融合法を提案する。
提案手法がSOTA法よりも優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2024-08-19T06:57:07Z) - X-ray2CTPA: Generating 3D CTPA scans from 2D X-ray conditioning [24.233484690096898]
胸部X線または胸部X線撮影(CXR)はCTスキャンと比較して限られた画像撮影を可能にする。
CTスキャンはCXRよりもコストが高く、放射線被曝も大きく、アクセス性も低い。
本研究では,2次元低コントラスト分解能X線入力から3次元高コントラストおよび空間分解能Aスキャンへのクロスモーダル変換について検討する。
論文 参考訳(メタデータ) (2024-06-23T13:53:35Z) - Multi-view X-ray Image Synthesis with Multiple Domain Disentanglement from CT Scans [10.72672892416061]
過剰投与されたX線は、ある程度人間の健康への潜在的なリスクを重畳する。
ボリュームスキャンからX線画像へのデータ駆動アルゴリズムは、ペア化されたX線とボリュームデータの不足によって制限される。
我々は,3つの異なる画像領域からのコンテンツとスタイルのゆがみを利用して,X線画像をエンドツーエンドに合成するCT2X-GANを提案する。
論文 参考訳(メタデータ) (2024-04-18T04:25:56Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Act Like a Radiologist: Radiology Report Generation across Anatomical Regions [50.13206214694885]
X-RGenは6つの解剖学的領域にわたる放射線学者によるレポート生成フレームワークである。
X-RGenでは、ヒトの放射線学者の行動を模倣し、これらを4つの主要な段階に分解する。
画像エンコーダの認識能力は,各領域にまたがる画像やレポートを分析して向上する。
論文 参考訳(メタデータ) (2023-05-26T07:12:35Z) - Perspective Projection-Based 3D CT Reconstruction from Biplanar X-rays [32.98966469644061]
我々は,X線を用いた新しいCT再構成フレームワークPerX2CTを提案する。
提案手法は,各座標に対して異なる特徴の組み合わせを提供し,モデルが3次元位置に関する情報を暗黙的に取得できるようにする。
論文 参考訳(メタデータ) (2023-03-09T14:45:25Z) - Improving Radiology Summarization with Radiograph and Anatomy Prompts [60.30659124918211]
本稿では,印象生成を促進するために,新しい解剖学的拡張型マルチモーダルモデルを提案する。
より詳しくは、まず、解剖学を抽出する一連のルールを構築し、各文にこれらのプロンプトを配置し、解剖学的特徴を強調する。
コントラスト学習モジュールを用いて、これらの2つの表現を全体レベルで整列させ、コアテンションを用いて文レベルで融合させる。
論文 参考訳(メタデータ) (2022-10-15T14:05:03Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - MedNeRF: Medical Neural Radiance Fields for Reconstructing 3D-aware
CT-Projections from a Single X-ray [14.10611608681131]
過剰な電離放射線は、体に決定論的かつ有害な影響をもたらす可能性がある。
本稿では,CTプロジェクションの再構成を学習する深層学習モデルを提案する。
論文 参考訳(メタデータ) (2022-02-02T13:25:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。