論文の概要: PhysGS: Bayesian-Inferred Gaussian Splatting for Physical Property Estimation
- arxiv url: http://arxiv.org/abs/2511.18570v1
- Date: Sun, 23 Nov 2025 18:29:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.904474
- Title: PhysGS: Bayesian-Inferred Gaussian Splatting for Physical Property Estimation
- Title(参考訳): PhysGS:物理特性推定のためのベイズ推定ガウス散乱
- Authors: Samarth Chopra, Jing Liang, Gershom Seneviratne, Dinesh Manocha,
- Abstract要約: 本稿では,3次元ガウス格子のベイズ推定拡張であるPhysGSについて述べる。
オブジェクトスケール、屋内、屋外の現実世界のデータセット全体で、PhysGSは質量推定の精度を最大22.8%向上させる。
以上の結果から,PhysGSは空間的に連続した1つのフレームワークにおいて,3次元再構成,不確実性モデリング,物理的推論を統一することを示した。
- 参考スコア(独自算出の注目度): 42.995383993323635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding physical properties such as friction, stiffness, hardness, and material composition is essential for enabling robots to interact safely and effectively with their surroundings. However, existing 3D reconstruction methods focus on geometry and appearance and cannot infer these underlying physical properties. We present PhysGS, a Bayesian-inferred extension of 3D Gaussian Splatting that estimates dense, per-point physical properties from visual cues and vision--language priors. We formulate property estimation as Bayesian inference over Gaussian splats, where material and property beliefs are iteratively refined as new observations arrive. PhysGS also models aleatoric and epistemic uncertainties, enabling uncertainty-aware object and scene interpretation. Across object-scale (ABO-500), indoor, and outdoor real-world datasets, PhysGS improves accuracy of the mass estimation by up to 22.8%, reduces Shore hardness error by up to 61.2%, and lowers kinetic friction error by up to 18.1% compared to deterministic baselines. Our results demonstrate that PhysGS unifies 3D reconstruction, uncertainty modeling, and physical reasoning in a single, spatially continuous framework for dense physical property estimation. Additional results are available at https://samchopra2003.github.io/physgs.
- Abstract(参考訳): 摩擦、硬さ、硬さ、材料組成などの物理的特性を理解することは、ロボットが周囲と安全かつ効果的に対話できるようにするために不可欠である。
しかし、既存の3D再構成手法は幾何学と外観に重点を置いており、これらの基礎となる物理的特性を推測することはできない。
本稿では,3次元ガウス格子のベイジアン推論拡張であるPhysGSについて述べる。
物質的および特性的信念が反復的に洗練され、新しい観測が到来する。
PhysGSはまた、アレタリックおよびてんかんの不確実性をモデル化し、不確実性を認識したオブジェクトとシーンの解釈を可能にする。
オブジェクトスケール(ABO-500)、屋内および屋外の現実世界のデータセット全体で、PhysGSは質量推定の精度を最大22.8%改善し、ショア硬度誤差を最大61.2%削減し、決定論的基準線よりも最大18.1%低下させる。
以上の結果から,PhysGSは高密度な物理特性推定のための単一空間連続フレームワークにおいて,3次元再構成,不確実性モデリング,物理推論を統一することを示した。
さらなる結果はhttps://samchopra2003.github.io/physgs.comで公開されている。
関連論文リスト
- Measuring Physical Plausibility of 3D Human Poses Using Physics Simulation [19.26289173517333]
本研究では,任意の3次元姿勢推定モデルから予測された3次元ポーズの物理的妥当性と安定性を捉えるための2つの指標を提案する。
物理シミュレーションを用いて,既存の可視性測定値との相関と運動時の安定性の測定を行う。
論文 参考訳(メタデータ) (2025-02-06T20:15:49Z) - OmniPhysGS: 3D Constitutive Gaussians for General Physics-Based Dynamics Generation [25.790371838717284]
より一般的な物体からなる物理に基づく3次元動的シーンを合成するためのOmniPhysGSを提案する。
本手法は,視覚的品質とテキストアライメントの指標において,既存の手法を約3%から16%上回っている。
論文 参考訳(メタデータ) (2025-01-31T09:28:07Z) - PhyRecon: Physically Plausible Neural Scene Reconstruction [81.73129450090684]
PHYRECONは、微分可能なレンダリングと微分可能な物理シミュレーションの両方を利用して暗黙的な表面表現を学習する最初のアプローチである。
この設計の中心は、SDFに基づく暗黙の表現と明示的な表面点の間の効率的な変換である。
また,物理シミュレータの安定性も向上し,全データセットに対して少なくとも40%の改善が得られた。
論文 参考訳(メタデータ) (2024-04-25T15:06:58Z) - Physion++: Evaluating Physical Scene Understanding that Requires Online
Inference of Different Physical Properties [100.19685489335828]
この研究は、人工システムにおける視覚的身体的予測を厳格に評価する新しいデータセットとベンチマークであるPhysylon++を提案する。
正確な予測が質量、摩擦、弾性、変形性などの特性の推定に依存するシナリオをテストする。
我々は,様々なレベルの学習と組込み知識にまたがる最先端予測モデルの性能を評価し,その性能を人間の予測と比較した。
論文 参考訳(メタデータ) (2023-06-27T17:59:33Z) - Visual Grounding of Learned Physical Models [66.04898704928517]
人間は、物体の物理的特性を直感的に認識し、複雑な相互作用に従事している場合でも、その動きを予測する。
我々は、物理を同時に推論し、視覚と力学の先行に基づく将来の予測を行うニューラルモデルを提案する。
実験により、我々のモデルはいくつかの観測範囲内で物理的特性を推測できることが示され、モデルが目に見えないシナリオに迅速に適応し、将来正確な予測を行うことができる。
論文 参考訳(メタデータ) (2020-04-28T17:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。