論文の概要: Sparse-view CT Reconstruction with 3D Gaussian Volumetric Representation
- arxiv url: http://arxiv.org/abs/2312.15676v1
- Date: Mon, 25 Dec 2023 09:47:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-01-15 13:04:43.176617
- Title: Sparse-view CT Reconstruction with 3D Gaussian Volumetric Representation
- Title(参考訳): 3次元ガウス体積表現を用いたスパースビューCT再構成
- Authors: Yingtai Li, Xueming Fu, Shang Zhao, Ruiyang Jin, S. Kevin Zhou
- Abstract要約: Sparse-view CTは従来のCTスキャンの放射線線量を減らすための有望な戦略である。
近年、3Dガウスアンは複雑な自然シーンのモデル化に応用されている。
スパース・ビューCT再建の可能性について検討した。
- 参考スコア(独自算出の注目度): 13.667470059238607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse-view CT is a promising strategy for reducing the radiation dose of
traditional CT scans, but reconstructing high-quality images from incomplete
and noisy data is challenging. Recently, 3D Gaussian has been applied to model
complex natural scenes, demonstrating fast convergence and better rendering of
novel views compared to implicit neural representations (INRs). Taking
inspiration from the successful application of 3D Gaussians in natural scene
modeling and novel view synthesis, we investigate their potential for
sparse-view CT reconstruction. We leverage prior information from the
filtered-backprojection reconstructed image to initialize the Gaussians; and
update their parameters via comparing difference in the projection space.
Performance is further enhanced by adaptive density control. Compared to INRs,
3D Gaussians benefit more from prior information to explicitly bypass learning
in void spaces and allocate the capacity efficiently, accelerating convergence.
3D Gaussians also efficiently learn high-frequency details. Trained in a
self-supervised manner, 3D Gaussians avoid the need for large-scale paired
data. Our experiments on the AAPM-Mayo dataset demonstrate that 3D Gaussians
can provide superior performance compared to INR-based methods. This work is in
progress, and the code will be publicly available.
- Abstract(参考訳): Sparse-view CTは従来のCTスキャンの放射線線量を減らすための有望な戦略であるが、不完全でノイズの多いデータから高品質な画像の再構成は困難である。
近年、3D Gaussianは複雑な自然のシーンをモデル化し、暗黙のニューラル表現(INR)と比較して、高速な収束と新しいビューのレンダリングを実証している。
自然シーンモデリングと新規ビュー合成における3Dガウスの応用から着想を得て, スパースビューCT再構成の可能性について検討した。
我々は,フィルタ付きバックプロジェクション再構成画像からの先行情報を利用してガウスを初期化し,そのパラメータを投影空間の違いを比較することにより更新する。
適応密度制御によりさらに性能が向上する。
INRと比較すると、3Dガウスアンは事前情報により、空空間での学習を明示的にバイパスし、効率よく容量を割り当て、収束を加速する。
3Dガウシアンはまた、高周波の詳細を効率的に学習する。
自己監督で訓練された3dガウス人は、大規模なペアデータの必要性を避ける。
AAPM-Mayoデータセットを用いた実験により,INR法と比較して3次元ガウスが優れた性能が得られることが示された。
この作業は進行中であり、コードは公開される予定である。
関連論文リスト
- 4DRGS: 4D Radiative Gaussian Splatting for Efficient 3D Vessel Reconstruction from Sparse-View Dynamic DSA Images [49.170407434313475]
既存の手法は、しばしば最適以下の結果を生成するか、過剰な計算時間を必要とする。
高品質な高精細化を実現するため、4次元ガウススプラッティング(4DRGS)を提案する。
4DRGSは5分間のトレーニングで印象的な結果を得る。
論文 参考訳(メタデータ) (2024-12-17T13:51:56Z) - Discretized Gaussian Representation for Tomographic Reconstruction [20.390232991700977]
我々はCT再構成のための離散化ガウス表現法(DGR)を提案する。
DGRは、離散化されたガウス関数の集合をエンドツーエンドで直接3Dボリュームを再構成する。
実世界のデータセットと合成データセットの両方に対する実験により、DGRはより優れた再構成品質を実現し、計算効率を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-11-07T16:32:29Z) - 3DGR-CAR: Coronary artery reconstruction from ultra-sparse 2D X-ray views with a 3D Gaussians representation [13.829610843207746]
3D冠動脈再建は,冠動脈疾患の診断,治療計画,手術ナビゲーションに重要である。
従来の再建技術は、しばしば多くの投射を必要とするが、スパースビューのX線投射からの再構成は、放射線線量を減らす潜在的方法である。
超スパースX線投影による冠動脈再建のための3次元ガウス表現法である3DGR-CARを提案する。
論文 参考訳(メタデータ) (2024-10-01T05:00:47Z) - 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - Learning 3D Gaussians for Extremely Sparse-View Cone-Beam CT Reconstruction [9.848266253196307]
Cone-Beam Computed Tomography (CBCT) は医用画像の撮影に欠かせない手法であるが、放射線照射が臨床応用に懸念をもたらす。
本稿では,3次元ガウス空間における特徴分布を表現するために3次元ガウス空間を利用する新しい再構成フレームワーク,DIF-Gaussianを提案する。
2つの公開データセット上でDIF-Gaussianを評価し,従来の最先端手法よりもはるかに優れた再構成性能を示した。
論文 参考訳(メタデータ) (2024-07-01T08:48:04Z) - CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging [78.734927709231]
スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:38:30Z) - Effective Rank Analysis and Regularization for Enhanced 3D Gaussian Splatting [33.01987451251659]
3D Gaussian Splatting(3DGS)は、高品質な3D再構成によるリアルタイムレンダリングが可能な有望な技術として登場した。
その可能性にもかかわらず、3DGSは針のようなアーティファクト、準最適ジオメトリー、不正確な正常など、課題に直面している。
正規化として有効なランクを導入し、ガウスの構造を制約する。
論文 参考訳(メタデータ) (2024-06-17T15:51:59Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本稿では,現在のアプローチよりも優れた空間感性プルーニングスコアを提案する。
また,事前学習した任意の3D-GSモデルに適用可能なマルチラウンドプルーファインパイプラインを提案する。
我々のパイプラインは、3D-GSの平均レンダリング速度を2.65$times$で増加させ、より健全なフォアグラウンド情報を保持します。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - RaDe-GS: Rasterizing Depth in Gaussian Splatting [32.38730602146176]
Gaussian Splatting (GS) は、高品質でリアルタイムなレンダリングを実現するために、新しいビュー合成に非常に効果的であることが証明されている。
本研究は,DTUデータセット上のNeuraLangeloに匹敵するチャムファー距離誤差を導入し,元の3D GS法と同様の計算効率を維持する。
論文 参考訳(メタデータ) (2024-06-03T15:56:58Z) - R$^2$-Gaussian: Rectifying Radiative Gaussian Splatting for Tomographic Reconstruction [53.19869886963333]
3次元ガウススプラッティング(3DGS)は画像のレンダリングと表面再構成において有望な結果を示した。
本稿では,Sparse-viewトモグラフィ再構成のための3DGSベースのフレームワークであるR2$-Gaussianを紹介する。
論文 参考訳(メタデータ) (2024-05-31T08:39:02Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - AbsGS: Recovering Fine Details for 3D Gaussian Splatting [10.458776364195796]
3D Gaussian Splatting (3D-GS) 技術は3Dプリミティブを相違可能なガウス化と組み合わせて高品質な新規ビュー結果を得る。
しかし、3D-GSは、高頻度の詳細を含む複雑なシーンで過度に再構成の問題に悩まされ、ぼやけた描画画像に繋がる。
本稿では,前述の人工物,すなわち勾配衝突の原因を包括的に分析する。
我々の戦略は過度に再構成された地域のガウス人を効果的に同定し、分割して細部を復元する。
論文 参考訳(メタデータ) (2024-04-16T11:44:12Z) - GaSpCT: Gaussian Splatting for Novel CT Projection View Synthesis [0.6990493129893112]
GaSpCTはコンピュータ・トモグラフィー(CT)スキャンのための新しいプロジェクション・ビューを生成するために使用される新しいビュー合成および3次元シーン表現法である。
我々は,2次元画像投影の限られたセットに基づいて,CTにおける新しいビュー合成を可能にするために,ガウススティングフレームワークを適用した。
我々はParkinson's Progression Markers Initiative (PPMI)データセットから脳CTスキャンを用いてモデルの性能を評価する。
論文 参考訳(メタデータ) (2024-04-04T00:28:50Z) - CoherentGS: Sparse Novel View Synthesis with Coherent 3D Gaussians [18.42203035154126]
2次元画像空間で制御できる構造付きガウス表現を導入する。
次に、ガウス群、特にその位置を制約し、最適化中に独立に動くのを防ぐ。
我々は,様々な場面における最先端のスパースビュー NeRF ベースのアプローチと比較して,顕著な改善を示した。
論文 参考訳(メタデータ) (2024-03-28T15:27:13Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。