論文の概要: XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors
- arxiv url: http://arxiv.org/abs/2012.02407v1
- Date: Fri, 4 Dec 2020 05:08:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 20:35:01.356664
- Title: XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors
- Title(参考訳): XraySyn:CTによる1枚のX線写真からのリアルなビュー合成
- Authors: Cheng Peng, Haofu Liao, Gina Wong, Jiebo Luo, Shaohua Kevin Zhou, Rama
Chellappa
- Abstract要約: 放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
- 参考スコア(独自算出の注目度): 118.27130593216096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A radiograph visualizes the internal anatomy of a patient through the use of
X-ray, which projects 3D information onto a 2D plane. Hence, radiograph
analysis naturally requires physicians to relate the prior about 3D human
anatomy to 2D radiographs. Synthesizing novel radiographic views in a small
range can assist physicians in interpreting anatomy more reliably; however,
radiograph view synthesis is heavily ill-posed, lacking in paired data, and
lacking in differentiable operations to leverage learning-based approaches. To
address these problems, we use Computed Tomography (CT) for radiograph
simulation and design a differentiable projection algorithm, which enables us
to achieve geometrically consistent transformations between the radiography and
CT domains. Our method, XraySyn, can synthesize novel views on real radiographs
through a combination of realistic simulation and finetuning on real
radiographs. To the best of our knowledge, this is the first work on radiograph
view synthesis. We show that by gaining an understanding of radiography in 3D
space, our method can be applied to radiograph bone extraction and suppression
without groundtruth bone labels.
- Abstract(参考訳): 放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
そのため、ラジオグラフィー分析では、医師が3Dヒト解剖学と2Dラジオグラフィーを関連付ける必要がある。
少ない範囲で新しいラジオグラフィックビューを合成することは、医師が解剖学をより確実に解釈するのに役立つが、ラジオグラフビューの合成は非常に不適切であり、ペアデータに欠けており、学習に基づくアプローチを活用するために微分可能な操作が欠如している。
これらの問題に対処するために,CT(Computerd Tomography)をラジオグラフィシミュレーションに使用し,識別可能なプロジェクションアルゴリズムを設計することにより,ラジオグラフィとCTドメイン間の幾何学的一貫した変換を実現する。
XraySynはリアルなシミュレーションとリアルなラジオグラフィーの微調整を組み合わせることで、リアルなラジオグラフィーの新たなビューを合成することができる。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
また, 3次元空間におけるx線撮影の理解を得ることにより, 接地骨ラベルを使わずに, 放射線画像の抽出と抑制に応用できることを示した。
関連論文リスト
- Radiative Gaussian Splatting for Efficient X-ray Novel View Synthesis [92.69532644965663]
我々は,X線ノベルビュー可視化のための3次元ガウシアンスプラッティングに基づくフレームワーク,すなわちX-ガウシアンを提案する。
実験の結果,X-Gaussianは6.5dBの最先端手法より優れており,トレーニング時間は15%未満であり,推論速度は73倍であることがわかった。
論文 参考訳(メタデータ) (2024-03-07T00:12:08Z) - CT Reconstruction from Few Planar X-rays with Application towards
Low-resource Radiotherapy [20.353246282326943]
先行データ分布を用いた5次元平面X線観測からCTボリュームを生成する手法を提案する。
臨床に関連のある特徴に焦点をあてるために,本モデルは訓練中に解剖学的指導を活用できる。
本手法は, 標準画素, 構造レベルの基準値から, 近年のスパースCT再建基準値よりも優れている。
論文 参考訳(メタデータ) (2023-08-04T01:17:57Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Transformers for CT Reconstruction From Monoplanar and Biplanar
Radiographs [0.11219061154635457]
両平面X線のみからのCT画像再構成の問題に対処する。
X線は広く利用されており、もしこれらのX線写真から再構成されたCTが、診断における完全なCTの代替ではないとしても、患者が放射線を免れるのに役立つかもしれない。
本稿では,言語翻訳問題として基礎となるタスクをフレーミングすることで,トランスフォーマーアーキテクチャに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-11T16:43:39Z) - Perspective Projection-Based 3D CT Reconstruction from Biplanar X-rays [32.98966469644061]
我々は,X線を用いた新しいCT再構成フレームワークPerX2CTを提案する。
提案手法は,各座標に対して異なる特徴の組み合わせを提供し,モデルが3次元位置に関する情報を暗黙的に取得できるようにする。
論文 参考訳(メタデータ) (2023-03-09T14:45:25Z) - Improving Radiology Summarization with Radiograph and Anatomy Prompts [60.30659124918211]
本稿では,印象生成を促進するために,新しい解剖学的拡張型マルチモーダルモデルを提案する。
より詳しくは、まず、解剖学を抽出する一連のルールを構築し、各文にこれらのプロンプトを配置し、解剖学的特徴を強調する。
コントラスト学習モジュールを用いて、これらの2つの表現を全体レベルで整列させ、コアテンションを用いて文レベルで融合させる。
論文 参考訳(メタデータ) (2022-10-15T14:05:03Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - MedNeRF: Medical Neural Radiance Fields for Reconstructing 3D-aware
CT-Projections from a Single X-ray [14.10611608681131]
過剰な電離放射線は、体に決定論的かつ有害な影響をもたらす可能性がある。
本稿では,CTプロジェクションの再構成を学習する深層学習モデルを提案する。
論文 参考訳(メタデータ) (2022-02-02T13:25:23Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - End-To-End Convolutional Neural Network for 3D Reconstruction of Knee
Bones From Bi-Planar X-Ray Images [6.645111950779666]
両平面X線画像から直接膝骨を3次元再構成するためのエンドツーエンド畳み込みニューラルネットワーク(CNN)を提案する。
論文 参考訳(メタデータ) (2020-04-02T08:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。