論文の概要: Sparse-view CT Reconstruction with 3D Gaussian Volumetric Representation
- arxiv url: http://arxiv.org/abs/2312.15676v1
- Date: Mon, 25 Dec 2023 09:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 13:04:43.176617
- Title: Sparse-view CT Reconstruction with 3D Gaussian Volumetric Representation
- Title(参考訳): 3次元ガウス体積表現を用いたスパースビューCT再構成
- Authors: Yingtai Li, Xueming Fu, Shang Zhao, Ruiyang Jin, S. Kevin Zhou
- Abstract要約: Sparse-view CTは従来のCTスキャンの放射線線量を減らすための有望な戦略である。
近年、3Dガウスアンは複雑な自然シーンのモデル化に応用されている。
スパース・ビューCT再建の可能性について検討した。
- 参考スコア(独自算出の注目度): 13.667470059238607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse-view CT is a promising strategy for reducing the radiation dose of
traditional CT scans, but reconstructing high-quality images from incomplete
and noisy data is challenging. Recently, 3D Gaussian has been applied to model
complex natural scenes, demonstrating fast convergence and better rendering of
novel views compared to implicit neural representations (INRs). Taking
inspiration from the successful application of 3D Gaussians in natural scene
modeling and novel view synthesis, we investigate their potential for
sparse-view CT reconstruction. We leverage prior information from the
filtered-backprojection reconstructed image to initialize the Gaussians; and
update their parameters via comparing difference in the projection space.
Performance is further enhanced by adaptive density control. Compared to INRs,
3D Gaussians benefit more from prior information to explicitly bypass learning
in void spaces and allocate the capacity efficiently, accelerating convergence.
3D Gaussians also efficiently learn high-frequency details. Trained in a
self-supervised manner, 3D Gaussians avoid the need for large-scale paired
data. Our experiments on the AAPM-Mayo dataset demonstrate that 3D Gaussians
can provide superior performance compared to INR-based methods. This work is in
progress, and the code will be publicly available.
- Abstract(参考訳): Sparse-view CTは従来のCTスキャンの放射線線量を減らすための有望な戦略であるが、不完全でノイズの多いデータから高品質な画像の再構成は困難である。
近年、3D Gaussianは複雑な自然のシーンをモデル化し、暗黙のニューラル表現(INR)と比較して、高速な収束と新しいビューのレンダリングを実証している。
自然シーンモデリングと新規ビュー合成における3Dガウスの応用から着想を得て, スパースビューCT再構成の可能性について検討した。
我々は,フィルタ付きバックプロジェクション再構成画像からの先行情報を利用してガウスを初期化し,そのパラメータを投影空間の違いを比較することにより更新する。
適応密度制御によりさらに性能が向上する。
INRと比較すると、3Dガウスアンは事前情報により、空空間での学習を明示的にバイパスし、効率よく容量を割り当て、収束を加速する。
3Dガウシアンはまた、高周波の詳細を効率的に学習する。
自己監督で訓練された3dガウス人は、大規模なペアデータの必要性を避ける。
AAPM-Mayoデータセットを用いた実験により,INR法と比較して3次元ガウスが優れた性能が得られることが示された。
この作業は進行中であり、コードは公開される予定である。
関連論文リスト
- Relaxing Accurate Initialization Constraint for 3D Gaussian Splatting [29.58220473268378]
3次元ガウス切削における正確な初期化制約の緩和)と呼ばれる新しい最適化手法を提案する。
複数のデータセットに対する定量的および定性的な比較による戦略の有効性を示し、全ての設定における性能を大幅に改善した。
論文 参考訳(メタデータ) (2024-03-14T14:04:21Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - GES: Generalized Exponential Splatting for Efficient Radiance Field
Rendering [116.99325082775387]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z) - pixelSplat: 3D Gaussian Splats from Image Pairs for Scalable
Generalizable 3D Reconstruction [29.192847542384712]
pixelSplatは、画像のペアから3次元ガウスプリミティブによってパラメータ化された3次元放射界の再構成を学ぶフィードフォワードモデルである。
我々のモデルは、スケーラブルなトレーニングのためのリアルタイム・メモリ効率のレンダリングと、推論時の高速な3次元再構成を特徴としている。
論文 参考訳(メタデータ) (2023-12-19T17:03:50Z) - GIR: 3D Gaussian Inverse Rendering for Relightable Scene Factorization [76.52007427483396]
GIRは3次元ガウス逆レンダリング法である。
本手法は,多視点画像から物体の材料特性,照明,形状を推定するために3次元ガウス法を用いる。
論文 参考訳(メタデータ) (2023-12-08T16:05:15Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [54.56928482110888]
本稿では,まず3次元ガウス表現を同時局所化・マッピングシステムで利用するtextbfGS-SLAM$を紹介する。
提案手法では,地図の最適化とRGB-D再レンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z) - DreamGaussian: Generative Gaussian Splatting for Efficient 3D Content
Creation [59.716180709678845]
本稿では,DreamGaussianを提案する。DreamGaussianは,効率と品質を両立させる新しい3Dコンテンツ生成フレームワークである。
我々の重要な洞察は、UV空間におけるメッシュ抽出とテクスチャ改善を伴う3次元ガウススプラッティングモデルを設計することである。
ニューラル・ラジアンス・フィールドにおける占有プルーニングとは対照的に、3次元ガウスの進行的な密度化は3次元生成タスクにおいて著しく速く収束することを示した。
論文 参考訳(メタデータ) (2023-09-28T17:55:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。