論文の概要: Sparse-view CT Reconstruction with 3D Gaussian Volumetric Representation
- arxiv url: http://arxiv.org/abs/2312.15676v1
- Date: Mon, 25 Dec 2023 09:47:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 13:04:43.176617
- Title: Sparse-view CT Reconstruction with 3D Gaussian Volumetric Representation
- Title(参考訳): 3次元ガウス体積表現を用いたスパースビューCT再構成
- Authors: Yingtai Li, Xueming Fu, Shang Zhao, Ruiyang Jin, S. Kevin Zhou
- Abstract要約: Sparse-view CTは従来のCTスキャンの放射線線量を減らすための有望な戦略である。
近年、3Dガウスアンは複雑な自然シーンのモデル化に応用されている。
スパース・ビューCT再建の可能性について検討した。
- 参考スコア(独自算出の注目度): 13.667470059238607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse-view CT is a promising strategy for reducing the radiation dose of
traditional CT scans, but reconstructing high-quality images from incomplete
and noisy data is challenging. Recently, 3D Gaussian has been applied to model
complex natural scenes, demonstrating fast convergence and better rendering of
novel views compared to implicit neural representations (INRs). Taking
inspiration from the successful application of 3D Gaussians in natural scene
modeling and novel view synthesis, we investigate their potential for
sparse-view CT reconstruction. We leverage prior information from the
filtered-backprojection reconstructed image to initialize the Gaussians; and
update their parameters via comparing difference in the projection space.
Performance is further enhanced by adaptive density control. Compared to INRs,
3D Gaussians benefit more from prior information to explicitly bypass learning
in void spaces and allocate the capacity efficiently, accelerating convergence.
3D Gaussians also efficiently learn high-frequency details. Trained in a
self-supervised manner, 3D Gaussians avoid the need for large-scale paired
data. Our experiments on the AAPM-Mayo dataset demonstrate that 3D Gaussians
can provide superior performance compared to INR-based methods. This work is in
progress, and the code will be publicly available.
- Abstract(参考訳): Sparse-view CTは従来のCTスキャンの放射線線量を減らすための有望な戦略であるが、不完全でノイズの多いデータから高品質な画像の再構成は困難である。
近年、3D Gaussianは複雑な自然のシーンをモデル化し、暗黙のニューラル表現(INR)と比較して、高速な収束と新しいビューのレンダリングを実証している。
自然シーンモデリングと新規ビュー合成における3Dガウスの応用から着想を得て, スパースビューCT再構成の可能性について検討した。
我々は,フィルタ付きバックプロジェクション再構成画像からの先行情報を利用してガウスを初期化し,そのパラメータを投影空間の違いを比較することにより更新する。
適応密度制御によりさらに性能が向上する。
INRと比較すると、3Dガウスアンは事前情報により、空空間での学習を明示的にバイパスし、効率よく容量を割り当て、収束を加速する。
3Dガウシアンはまた、高周波の詳細を効率的に学習する。
自己監督で訓練された3dガウス人は、大規模なペアデータの必要性を避ける。
AAPM-Mayoデータセットを用いた実験により,INR法と比較して3次元ガウスが優れた性能が得られることが示された。
この作業は進行中であり、コードは公開される予定である。
関連論文リスト
- Discretized Gaussian Representation for Tomographic Reconstruction [20.390232991700977]
我々はCT(Computed Tomography)再構成に特化して設計された新しい離散ガウス表現(DGR)を提案する。
我々の表現は、離散化されたガウス函数の集合をエンドツーエンドに利用して直接3次元体積を再構成する。
論文 参考訳(メタデータ) (2024-11-07T16:32:29Z) - Effective Rank Analysis and Regularization for Enhanced 3D Gaussian Splatting [33.01987451251659]
3D Gaussian Splatting(3DGS)は、高品質な3D再構成によるリアルタイムレンダリングが可能な有望な技術として登場した。
その可能性にもかかわらず、3DGSは針状アーティファクト、準最適ジオメトリー、不正確な正常といった課題に遭遇する。
正規化として有効ランクを導入し、ガウスの構造を制約する。
論文 参考訳(メタデータ) (2024-06-17T15:51:59Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - R$^2$-Gaussian: Rectifying Radiative Gaussian Splatting for Tomographic Reconstruction [53.19869886963333]
3次元ガウススプラッティング(3DGS)は画像のレンダリングと表面再構成において有望な結果を示した。
本稿では,Sparse-viewトモグラフィ再構成のための3DGSベースのフレームワークであるR2$-Gaussianを紹介する。
論文 参考訳(メタデータ) (2024-05-31T08:39:02Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - AbsGS: Recovering Fine Details for 3D Gaussian Splatting [10.458776364195796]
3D Gaussian Splatting (3D-GS) 技術は3Dプリミティブを相違可能なガウス化と組み合わせて高品質な新規ビュー結果を得る。
しかし、3D-GSは、高頻度の詳細を含む複雑なシーンで過度に再構成の問題に悩まされ、ぼやけた描画画像に繋がる。
本稿では,前述の人工物,すなわち勾配衝突の原因を包括的に分析する。
我々の戦略は過度に再構成された地域のガウス人を効果的に同定し、分割して細部を復元する。
論文 参考訳(メタデータ) (2024-04-16T11:44:12Z) - CoherentGS: Sparse Novel View Synthesis with Coherent 3D Gaussians [18.42203035154126]
2次元画像空間で制御できる構造付きガウス表現を導入する。
次に、ガウス群、特にその位置を制約し、最適化中に独立に動くのを防ぐ。
我々は,様々な場面における最先端のスパースビュー NeRF ベースのアプローチと比較して,顕著な改善を示した。
論文 参考訳(メタデータ) (2024-03-28T15:27:13Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。