論文の概要: DYNAMO: Dependency-Aware Deep Learning Framework for Articulated Assembly Motion Prediction
- arxiv url: http://arxiv.org/abs/2509.12430v1
- Date: Mon, 15 Sep 2025 20:32:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.753491
- Title: DYNAMO: Dependency-Aware Deep Learning Framework for Articulated Assembly Motion Prediction
- Title(参考訳): DYNAMO:Articulated Assembly Motion Predictionのための依存性を考慮したディープラーニングフレームワーク
- Authors: Mayank Patel, Rahul Jain, Asim Unmesh, Karthik Ramani,
- Abstract要約: MechBenchは、693の多様な合成歯車集合体と、部分的な接地構造運動軌跡のベンチマークデータセットである。
分割CAD点雲から直接,部品ごとのSE(3)運動軌跡を予測する依存認識型ニューラルモデルDYNAMOを提案する。
MechBench と DYNAMO は共に,CAD アセンブリにおける結合機械運動のデータ駆動学習の体系的枠組みを確立した。
- 参考スコア(独自算出の注目度): 12.882634043776507
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Understanding the motion of articulated mechanical assemblies from static geometry remains a core challenge in 3D perception and design automation. Prior work on everyday articulated objects such as doors and laptops typically assumes simplified kinematic structures or relies on joint annotations. However, in mechanical assemblies like gears, motion arises from geometric coupling, through meshing teeth or aligned axes, making it difficult for existing methods to reason about relational motion from geometry alone. To address this gap, we introduce MechBench, a benchmark dataset of 693 diverse synthetic gear assemblies with part-wise ground-truth motion trajectories. MechBench provides a structured setting to study coupled motion, where part dynamics are induced by contact and transmission rather than predefined joints. Building on this, we propose DYNAMO, a dependency-aware neural model that predicts per-part SE(3) motion trajectories directly from segmented CAD point clouds. Experiments show that DYNAMO outperforms strong baselines, achieving accurate and temporally consistent predictions across varied gear configurations. Together, MechBench and DYNAMO establish a novel systematic framework for data-driven learning of coupled mechanical motion in CAD assemblies.
- Abstract(参考訳): 静的幾何学から機械組立体の運動を理解することは、3次元知覚と設計の自動化における中核的な課題である。
ドアやノートパソコンなどの日常的な調音オブジェクトに関する以前の研究は、単純なキネマティックな構造を前提とするか、ジョイントアノテーションに依存している。
しかし、歯車のような機械的な集合体では、運動は幾何学的な結合から生じ、噛み合いの歯やアライメントの軸を通じて起こるため、既存の手法では幾何学のみから関係的な動きを推論することは困難である。
このギャップに対処するために、我々はMechBenchという、693の多様な合成ギア集合体と、部分的な接地構造運動軌跡のベンチマークデータセットを紹介した。
MechBenchは結合運動を研究するための構造化された設定を提供する。
そこで我々は,DYNAMOを提案する。DYNAMOは,分割CAD点雲から直接,部品ごとのSE(3)運動軌跡を予測する依存認識ニューラルモデルである。
実験により、DYNAMOは強力なベースラインを上回り、様々なギア構成で正確で時間的に一貫した予測を達成している。
MechBench と DYNAMO は共に,CAD アセンブリにおける結合機械運動のデータ駆動学習の体系的枠組みを確立した。
関連論文リスト
- Geometric Neural Distance Fields for Learning Human Motion Priors [51.99890740169883]
本研究では,より頑健で時間的に整合性があり,物理的に妥当な3次元運動回復を可能にする新しい3D生成人体運動について紹介する。
AMASSデータセットをトレーニングし、NRMFは複数の入力モードにまたがって著しく一般化する。
論文 参考訳(メタデータ) (2025-09-11T17:58:18Z) - A Structure-aware and Motion-adaptive Framework for 3D Human Pose Estimation with Mamba [18.376143217023934]
空間的関節トポロジーを捉えるための構造認識・運動適応型フレームワークを提案する。
上述のキーモジュールを通じて,本アルゴリズムは構造認識と動き適応型ポーズリフトを可能にする。
論文 参考訳(メタデータ) (2025-07-26T07:59:52Z) - GGMotion: Group Graph Dynamics-Kinematics Networks for Human Motion Prediction [0.0]
GGMotionはグループグラフのダイナミックス・キネマティクスネットワークで、人間のトポロジをグループでモデル化し、ダイナミックスやキネマティクスの事前利用を改善する。
グループ間およびグループ間相互作用モジュールは、異なるスケールで関節の依存関係をキャプチャするために使用される。
本手法は,短期動作予測において有意な性能差を達成している。
論文 参考訳(メタデータ) (2025-07-10T08:02:01Z) - IAAO: Interactive Affordance Learning for Articulated Objects in 3D Environments [56.85804719947]
IAAOは知的エージェントのための明示的な3Dモデルを構築するフレームワークで,対話を通して環境内の明瞭な物体の理解を得る。
マスク特徴とビュー一貫性ラベルを多視点画像から抽出し,まず3次元ガウススティング(3DGS)を用いて各オブジェクト状態の階層的特徴とラベルフィールドを構築する。
次に、3Dガウスプリミティブ上でオブジェクトと部分レベルのクエリを実行し、静的および明瞭な要素を識別し、大域的な変換と局所的な調音パラメータをアベイランスとともに推定する。
論文 参考訳(メタデータ) (2025-04-09T12:36:48Z) - M3Bench: Benchmarking Whole-body Motion Generation for Mobile Manipulation in 3D Scenes [66.44171200767839]
M3Benchは、モバイル操作タスクにおける全身の動き生成のための新しいベンチマークである。
M3Benchは、119の多様なシーンに3万のオブジェクト再構成タスクを備えている。
M3BenchとM3BenchMakerは、より適応的で有能なモバイル操作に向けたロボティクスの研究を進めることを目指している。
論文 参考訳(メタデータ) (2024-10-09T08:38:21Z) - Degrees of Freedom Matter: Inferring Dynamics from Point Trajectories [28.701879490459675]
ニューラルネットワークによってパラメータ化された暗黙の運動場を学習し、同一領域内の新規点の動きを予測することを目的とする。
我々は、SIRENが提供する固有正則化を活用し、入力層を変更して時間的に滑らかな運動場を生成する。
実験では, 未知点軌道の予測におけるモデルの性能評価と, 変形を伴う時間メッシュアライメントへの応用について検討した。
論文 参考訳(メタデータ) (2024-06-05T21:02:10Z) - Physics-Encoded Graph Neural Networks for Deformation Prediction under
Contact [87.69278096528156]
ロボット工学では、触覚相互作用における物体の変形を理解することが不可欠である。
本稿では,物理符号化グラフニューラルネットワーク(GNN)を用いた予測手法を提案する。
コードとデータセットを公開して、ロボットシミュレーションと把握の研究を進めました。
論文 参考訳(メタデータ) (2024-02-05T19:21:52Z) - Structure from Action: Learning Interactions for Articulated Object 3D
Structure Discovery [18.96346371296251]
SfA(Structure from Action)は,目に見えない物体の3次元部分形状と関節パラメータを発見するためのフレームワークである。
情報的相互作用を選択することで、SfAは部品を発見し、閉じた引き出しの内側のような閉塞面を明らかにする。
経験的に、SfAは最先端のコンポーネントのパイプラインを25.4の3D IoUパーセンテージで上回っている。
論文 参考訳(メタデータ) (2022-07-19T00:27:36Z) - Reconstructing Interactive 3D Scenes by Panoptic Mapping and CAD Model
Alignments [81.38641691636847]
エンボディエージェントの観点から,シーン再構築の問題を再考する。
rgb-dデータストリームを用いてインタラクティブシーンを再構築する。
この再構成されたシーンは、密集したパノプティカルマップのオブジェクトメッシュを、部分ベースのCADモデルに置き換える。
論文 参考訳(メタデータ) (2021-03-30T05:56:58Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。