論文の概要: VoMP: Predicting Volumetric Mechanical Property Fields
- arxiv url: http://arxiv.org/abs/2510.22975v1
- Date: Mon, 27 Oct 2025 03:56:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.441535
- Title: VoMP: Predicting Volumetric Mechanical Property Fields
- Title(参考訳): VoMP: ボリューム・メカニカル・プロパティ・フィールドの予測
- Authors: Rishit Dagli, Donglai Xiang, Vismay Modi, Charles Loop, Clement Fuji Tsang, Anka He Chen, Anita Hu, Gavriel State, David I. W. Levin, Maria Shugrina,
- Abstract要約: VoMPは、ヤング率(E$)、ポアソン比(nu$)、密度(rho$)を予測するために訓練されたフィードフォワード方式である。
ボクセルごとのマルチビュー機能を集約し、トレーニング済みのGeometry Transformerに渡して、ボクセルごとの潜伏コードを予測する。
実験により、VoMPは正確な体積特性を推定し、精度と速度において先行技術よりもはるかに優れていることが示された。
- 参考スコア(独自算出の注目度): 12.504007202543784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physical simulation relies on spatially-varying mechanical properties, often laboriously hand-crafted. VoMP is a feed-forward method trained to predict Young's modulus ($E$), Poisson's ratio ($\nu$), and density ($\rho$) throughout the volume of 3D objects, in any representation that can be rendered and voxelized. VoMP aggregates per-voxel multi-view features and passes them to our trained Geometry Transformer to predict per-voxel material latent codes. These latents reside on a manifold of physically plausible materials, which we learn from a real-world dataset, guaranteeing the validity of decoded per-voxel materials. To obtain object-level training data, we propose an annotation pipeline combining knowledge from segmented 3D datasets, material databases, and a vision-language model, along with a new benchmark. Experiments show that VoMP estimates accurate volumetric properties, far outperforming prior art in accuracy and speed.
- Abstract(参考訳): 物理シミュレーションは空間的に変化する機械的特性に依存しており、しばしば手作りである。
VoMPは3Dオブジェクトの体積を通してヤング率(E$)、ポアソン比(\nu$)、密度(\rho$)を予測するために訓練されたフィードフォワード法である。
VoMPは、ボクセルごとのマルチビュー機能を集約し、トレーニング済みのGeometry Transformerに渡して、ボクセルごとの潜伏コードを予測する。
これらの潜伏物質は物理的に可塑性な物質の多様体上に存在し、実世界のデータセットから学習し、デコードされたボクセル単位の物質の有効性を保証する。
オブジェクトレベルのトレーニングデータを得るため、新しいベンチマークとともに、セグメント化された3Dデータセット、マテリアルデータベース、ビジョン言語モデルからの知識を組み合わせたアノテーションパイプラインを提案する。
実験により、VoMPは正確な体積特性を推定し、精度と速度において先行技術よりもはるかに優れていることが示された。
関連論文リスト
- A large-scale, physically-based synthetic dataset for satellite pose estimation [0.0]
本稿では,ハッブル宇宙望遠鏡(HST)を対象とするDLVS3-HST-V1データセットについて述べる。
データセットは、高度なリアルタイムおよびオフラインレンダリング技術を使用して生成され、高忠実度3Dモデル、ダイナミックライティング、物理的に正確な材料特性を統合する。
このパイプラインは、6-DoFのポーズとキーポイントデータ、セマンティックセグメンテーション、深さ、正規マップを備えた大規模でリッチな注釈付きイメージセットの作成をサポートする。
論文 参考訳(メタデータ) (2025-06-15T09:24:32Z) - IAAO: Interactive Affordance Learning for Articulated Objects in 3D Environments [56.85804719947]
IAAOは知的エージェントのための明示的な3Dモデルを構築するフレームワークで,対話を通して環境内の明瞭な物体の理解を得る。
マスク特徴とビュー一貫性ラベルを多視点画像から抽出し,まず3次元ガウススティング(3DGS)を用いて各オブジェクト状態の階層的特徴とラベルフィールドを構築する。
次に、3Dガウスプリミティブ上でオブジェクトと部分レベルのクエリを実行し、静的および明瞭な要素を識別し、大域的な変換と局所的な調音パラメータをアベイランスとともに推定する。
論文 参考訳(メタデータ) (2025-04-09T12:36:48Z) - Efficient Physics Simulation for 3D Scenes via MLLM-Guided Gaussian Splatting [32.846428862045634]
Sim Anythingは、静的な3Dオブジェクトにインタラクティブなダイナミクスを与える物理ベースのアプローチである。
人間の視覚的推論に触発されて,MLLMに基づく物理特性知覚を提案する。
また、物理幾何学的適応サンプリングを用いて粒子をサンプリングして、オープンワールドシーンでオブジェクトをシミュレートする。
論文 参考訳(メタデータ) (2024-11-19T12:52:21Z) - The Sound of Water: Inferring Physical Properties from Pouring Liquids [85.30865788636386]
注水液の音響・視覚観測と物理の関連性について検討した。
本研究の目的は, 液位, 容器形状, 注水速度, 充填時間などの物性を自動的に推定することである。
論文 参考訳(メタデータ) (2024-11-18T01:19:37Z) - GIC: Gaussian-Informed Continuum for Physical Property Identification and Simulation [60.33467489955188]
本稿では,視覚的観察を通して物理特性(システム同定)を推定する問題について検討する。
物理特性推定における幾何学的ガイダンスを容易にするために,我々は新しいハイブリッドフレームワークを提案する。
本研究では,3次元ガウス点集合としてオブジェクトを復元する動き分解に基づく動的3次元ガウスフレームワークを提案する。
抽出された物体表面に加えて、ガウスインフォームド連続体はシミュレーション中の物体マスクのレンダリングを可能にする。
論文 参考訳(メタデータ) (2024-06-21T07:37:17Z) - PREPRINT: Comparison of deep learning and hand crafted features for
mining simulation data [7.214140640112874]
本稿では,高次元データセットから有意な結果を自動抽出する作業について述べる。
このようなデータを処理することができる深層学習手法を提案し、シミュレーションデータに関する関連するタスクを解決するように訓練することができる。
16,000フローフィールドを含む翼まわりの流れ場の2次元シミュレーションの大規模なデータセットをコンパイルし,比較を行った。
論文 参考訳(メタデータ) (2021-03-11T09:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。