論文の概要: Real-to-Sim for Highly Cluttered Environments via Physics-Consistent Inter-Object Reasoning
- arxiv url: http://arxiv.org/abs/2602.12633v1
- Date: Fri, 13 Feb 2026 05:24:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.425445
- Title: Real-to-Sim for Highly Cluttered Environments via Physics-Consistent Inter-Object Reasoning
- Title(参考訳): 物理一貫性のある物体間共振による高クラッタ環境の実現
- Authors: Tianyi Xiang, Jiahang Cao, Sikai Guo, Guoyang Zhao, Andrew F. Luo, Jun Ma,
- Abstract要約: 単一視点からの物理的に有効な3Dシーンの再構築は、視覚知覚とロボット制御のギャップを埋めるための前提条件である。
本稿では,物理制約付き実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実
- 参考スコア(独自算出の注目度): 11.05191602561784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing physically valid 3D scenes from single-view observations is a prerequisite for bridging the gap between visual perception and robotic control. However, in scenarios requiring precise contact reasoning, such as robotic manipulation in highly cluttered environments, geometric fidelity alone is insufficient. Standard perception pipelines often neglect physical constraints, resulting in invalid states, e.g., floating objects or severe inter-penetration, rendering downstream simulation unreliable. To address these limitations, we propose a novel physics-constrained Real-to-Sim pipeline that reconstructs physically consistent 3D scenes from single-view RGB-D data. Central to our approach is a differentiable optimization pipeline that explicitly models spatial dependencies via a contact graph, jointly refining object poses and physical properties through differentiable rigid-body simulation. Extensive evaluations in both simulation and real-world settings demonstrate that our reconstructed scenes achieve high physical fidelity and faithfully replicate real-world contact dynamics, enabling stable and reliable contact-rich manipulation.
- Abstract(参考訳): 単一視点からの物理的に有効な3Dシーンの再構築は、視覚知覚とロボット制御のギャップを埋めるための前提条件である。
しかし、高度に散らばった環境でのロボット操作のような正確な接触推論を必要とするシナリオでは、幾何学的忠実度だけでは不十分である。
標準的な知覚パイプラインは物理的制約を無視することが多く、結果として浮動小数点や激しい相互接続といった無効な状態が発生し、下流シミュレーションの信頼性が低下する。
これらの制約に対処するため,一視点RGB-Dデータから物理的に一貫した3Dシーンを再構成する物理制約付きリアル・ツー・シムパイプラインを提案する。
当社のアプローチの中心となるのは,接触グラフによる空間依存性,オブジェクトのポーズと物理的特性を,微分可能な剛体シミュレーションによって明示的にモデル化する,微分可能な最適化パイプラインである。
シミュレーションと実世界の双方での大規模な評価により、再構成されたシーンは高い物理的忠実性を実現し、実世界の接触ダイナミクスを忠実に再現し、安定かつ信頼性の高い接触リッチな操作を可能にすることを示した。
関連論文リスト
- HSImul3R: Physics-in-the-Loop Reconstruction of Simulation-Ready Human-Scene Interactions [69.43316445143408]
HSImul3Rはヒトとシーンの相互作用をシミュレーション可能な3次元再構成のための統合フレームワークである。
既存の手法は知覚とシミュレーションのギャップに悩まされており、物理エンジンの不安定性と、具体化されたAIアプリケーションの失敗につながっている。
論文 参考訳(メタデータ) (2026-03-16T17:58:33Z) - URDF-Anything+: Autoregressive Articulated 3D Models Generation for Physical Simulation [45.4820195450296]
本稿では,視覚的観察から実行可能なオブジェクトモデルを直接生成する,エンドツーエンドの自動回帰フレームワークを提案する。
視覚的観察から構築された高忠実度デジタル双生児は、シミュレーションで訓練されたポリシーを、オンライン適応なしで実際のロボットに転送することができる。
論文 参考訳(メタデータ) (2026-03-14T16:23:44Z) - MotionAnymesh: Physics-Grounded Articulation for Simulation-Ready Digital Twins [25.25391483526521]
MotionAnymeshは、非構造化の静的メッシュをシミュレーション可能なデジタルツインにシームレスに変換するフレームワークである。
提案手法は, VLM推論をSP4D物理先行値で根拠とした運動認識部分分割モジュールを特徴とする。
論文 参考訳(メタデータ) (2026-03-13T12:30:42Z) - PhyScensis: Physics-Augmented LLM Agents for Complex Physical Scene Arrangement [89.35154754765502]
PhyScensisは物理エンジンを動力とするエージェントベースのフレームワークで、物理的に可視なシーン構成を生成する。
本フレームワークは,微粒なテキスト記述や数値パラメータに対する強い制御性を保っている。
実験の結果,本手法はシーンの複雑さ,視覚的品質,身体的精度において,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2026-02-16T17:55:25Z) - Mirage2Matter: A Physically Grounded Gaussian World Model from Video [87.9732484393686]
我々は、グラフィック駆動の世界モデリングおよびシミュレーションフレームワークであるSimulate Anythingを紹介する。
実世界の環境を3次元ガウススプレイティング(3DGS)による写実的シーン表現に再構築する。
次に、生成モデルを利用して、物理的に現実的な表現を復元し、精度校正ターゲットを介してシミュレーション環境に統合する。
論文 参考訳(メタデータ) (2026-01-24T07:43:57Z) - DeepSimHO: Stable Pose Estimation for Hand-Object Interaction via
Physics Simulation [81.11585774044848]
我々は、前方物理シミュレーションと後方勾配近似とニューラルネットワークを組み合わせた新しいディープラーニングパイプラインであるDeepSimHOを紹介する。
提案手法は, 評価の安定性を著しく向上し, テスト時間最適化よりも優れた効率性を実現する。
論文 参考訳(メタデータ) (2023-10-11T05:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。