論文の概要: GaSpCT: Gaussian Splatting for Novel CT Projection View Synthesis
- arxiv url: http://arxiv.org/abs/2404.03126v1
- Date: Thu, 4 Apr 2024 00:28:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 16:12:59.489270
- Title: GaSpCT: Gaussian Splatting for Novel CT Projection View Synthesis
- Title(参考訳): GaSpCT:新しいCT投影ビュー合成のためのガウススプラッティング
- Authors: Emmanouil Nikolakakis, Utkarsh Gupta, Jonathan Vengosh, Justin Bui, Razvan Marinescu,
- Abstract要約: GaSpCTはコンピュータ・トモグラフィー(CT)スキャンのための新しいプロジェクション・ビューを生成するために使用される新しいビュー合成および3次元シーン表現法である。
我々は,2次元画像投影の限られたセットに基づいて,CTにおける新しいビュー合成を可能にするために,ガウススティングフレームワークを適用した。
我々はParkinson's Progression Markers Initiative (PPMI)データセットから脳CTスキャンを用いてモデルの性能を評価する。
- 参考スコア(独自算出の注目度): 0.6990493129893112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present GaSpCT, a novel view synthesis and 3D scene representation method used to generate novel projection views for Computer Tomography (CT) scans. We adapt the Gaussian Splatting framework to enable novel view synthesis in CT based on limited sets of 2D image projections and without the need for Structure from Motion (SfM) methodologies. Therefore, we reduce the total scanning duration and the amount of radiation dose the patient receives during the scan. We adapted the loss function to our use-case by encouraging a stronger background and foreground distinction using two sparsity promoting regularizers: a beta loss and a total variation (TV) loss. Finally, we initialize the Gaussian locations across the 3D space using a uniform prior distribution of where the brain's positioning would be expected to be within the field of view. We evaluate the performance of our model using brain CT scans from the Parkinson's Progression Markers Initiative (PPMI) dataset and demonstrate that the rendered novel views closely match the original projection views of the simulated scan, and have better performance than other implicit 3D scene representations methodologies. Furthermore, we empirically observe reduced training time compared to neural network based image synthesis for sparse-view CT image reconstruction. Finally, the memory requirements of the Gaussian Splatting representations are reduced by 17% compared to the equivalent voxel grid image representations.
- Abstract(参考訳): 本稿では,コンピュータ・トモグラフィー(CT)スキャンのための新しいプロジェクション・ビューを生成するために,新しいビュー合成と3次元シーン表現法であるGaSpCTを提案する。
我々は2次元画像投影の限られたセットをベースとしたCTにおける新しいビュー合成を可能にするためにガウス・スティング・フレームワークを適用し、SfM(Structure from Motion)手法を必要としない。
そこで本研究では,患者がスキャン中に受ける総スキャン期間と放射線線量を削減する。
本研究は,2種類のレギュラーライザ(ベータ・ロス)と総変量(TV)の損失)を用いて,背景と前景の差異を強くし,損失関数をユースケースに適応させた。
最後に、3次元空間を横断するガウス的位置を、脳の位置が視野内で予測される位置の均一な事前分布を用いて初期化する。
我々は,Parkinson's Progression Markers Initiative (PPMI) データセットの脳CTスキャンを用いてモデルの性能を評価し,レンダリングされた新規ビューが模擬スキャンのオリジナル投影ビューと密に一致し,他の暗黙的な3Dシーン表現手法よりも優れた性能を有することを示す。
さらに,Sparse-view CT画像再構成のためのニューラルネットワークによる画像合成と比較して,トレーニング時間の短縮を実証的に観察した。
最後に、ガウススプラッティング表現のメモリ要求を、等価なボクセルグリッド画像表現と比較して17%削減する。
関連論文リスト
- Sparse-view CT Reconstruction with 3D Gaussian Volumetric Representation [13.667470059238607]
Sparse-view CTは従来のCTスキャンの放射線線量を減らすための有望な戦略である。
近年、3Dガウスアンは複雑な自然シーンのモデル化に応用されている。
スパース・ビューCT再建の可能性について検討した。
論文 参考訳(メタデータ) (2023-12-25T09:47:33Z) - pixelSplat: 3D Gaussian Splats from Image Pairs for Scalable Generalizable 3D Reconstruction [26.72289913260324]
pixelSplatは、画像のペアから3次元ガウスプリミティブによってパラメータ化された3次元放射界の再構成を学ぶフィードフォワードモデルである。
我々のモデルは、スケーラブルなトレーニングのためのリアルタイム・メモリ効率のレンダリングと、推論時の高速な3次元再構成を特徴としている。
論文 参考訳(メタデータ) (2023-12-19T17:03:50Z) - GPS-Gaussian: Generalizable Pixel-wise 3D Gaussian Splatting for Real-time Human Novel View Synthesis [70.24111297192057]
我々は、文字の新たなビューをリアルタイムに合成するための新しいアプローチ、GPS-Gaussianを提案する。
提案手法は,スパースビューカメラ設定下での2K解像度のレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z) - X-Ray to CT Rigid Registration Using Scene Coordinate Regression [1.1687067206676627]
本稿では,極端視点に頑健な完全自動登録手法を提案する。
これは、与えられたX線画像の重なり合う座標を回帰する完全な畳み込みニューラルネットワーク(CNN)に基づいている。
提案手法は, 模擬試験データセットの50パーセンタイルにおける平均平均目標登録誤差(mTRE)を3.79mmとし, ペルビス登録のための実フルオロスコープ画像の50パーセンタイルにおける平均目標登録誤差(mTRE)を9.65mmと予測した。
論文 参考訳(メタデータ) (2023-11-25T17:48:46Z) - APRF: Anti-Aliasing Projection Representation Field for Inverse Problem
in Imaging [74.9262846410559]
Sparse-view Computed Tomography (SVCT) は画像の逆問題である。
近年の研究では、インプリシット・ニューラル・リ表現(INR)を用いて、シングラムとCT画像の座標に基づくマッピングを構築している。
自己教師型SVCT再構成法の提案 -抗エイリアス射影表現場(APRF)-
APRFは空間的制約によって隣接する投影ビュー間の連続的な表現を構築することができる。
論文 参考訳(メタデータ) (2023-07-11T14:04:12Z) - Generative Modeling in Sinogram Domain for Sparse-view CT Reconstruction [12.932897771104825]
CT検査では投射回数を直感的に減らすことで放射線線量を大幅に減少させることができる。
疎視データを用いた従来のディープラーニング技術では、教師付き方法でネットワークをトレーニングするためにスパースビュー/フルビューCTイメージペアが必要である。
スパース・ビューCT再構成のための非教師なしスコアベース生成モデルについて検討した。
論文 参考訳(メタデータ) (2022-11-25T06:49:18Z) - NeurAR: Neural Uncertainty for Autonomous 3D Reconstruction [64.36535692191343]
暗黙の神経表現はオフラインの3D再構成において魅力的な結果を示しており、オンラインSLAMシステムの可能性も最近示している。
本論文は,1)新しい表現に基づく視点計画の質を評価するための基準を求めること,2)手作りではなく,異なる場面に一般化可能なデータから基準を学習すること,の2つの課題に対処する。
本手法は, TSDFを用いた変形モデルやビュープランニングなしでの再構成モデルと比較した場合, レンダリングされた画像品質と再構成された3次元モデルの幾何学的品質について, 様々な指標について有意な改善を示す。
論文 参考訳(メタデータ) (2022-07-22T10:05:36Z) - Enhancement of Novel View Synthesis Using Omnidirectional Image
Completion [61.78187618370681]
ニューラルレイディアンス場(NeRF)に基づく1枚の360度RGB-D画像から新しいビューを合成する方法を提案する。
実験により,提案手法は実世界と実世界の両方でシーンの特徴を保ちながら,可塑性な新規なビューを合成できることが実証された。
論文 参考訳(メタデータ) (2022-03-18T13:49:25Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。