論文の概要: ArticFlow: Generative Simulation of Articulated Mechanisms
- arxiv url: http://arxiv.org/abs/2511.17883v1
- Date: Sat, 22 Nov 2025 02:19:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.49274
- Title: ArticFlow: Generative Simulation of Articulated Mechanisms
- Title(参考訳): ArticFlow:Articulated Mechanismの生成シミュレーション
- Authors: Jiong Lin, Jinchen Ruan, Hod Lipson,
- Abstract要約: ArticFlowは2段階のフローマッチングフレームワークで、ノイズから目標点までの制御可能な速度場を明示的なアクション制御の下で学習する。
MuJoCo Menagerieでは、ArticFlowは生成モデルとニューラルシミュレータの両方として機能する。
- 参考スコア(独自算出の注目度): 5.861206243996455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in generative models have produced strong results for static 3D shapes, whereas articulated 3D generation remains challenging due to action-dependent deformations and limited datasets. We introduce ArticFlow, a two-stage flow matching framework that learns a controllable velocity field from noise to target point sets under explicit action control. ArticFlow couples (i) a latent flow that transports noise to a shape-prior code and (ii) a point flow that transports points conditioned on the action and the shape prior, enabling a single model to represent diverse articulated categories and generalize across actions. On MuJoCo Menagerie, ArticFlow functions both as a generative model and as a neural simulator: it predicts action-conditioned kinematics from a compact prior and synthesizes novel morphologies via latent interpolation. Compared with object-specific simulators and an action-conditioned variant of static point-cloud generators, ArticFlow achieves higher kinematic accuracy and better shape quality. Results show that action-conditioned flow matching is a practical route to controllable and high-quality articulated mechanism generation.
- Abstract(参考訳): 生成モデルの最近の進歩は静的な3次元形状に対して強い結果をもたらしているが、アクション依存的な変形や限られたデータセットのため、明瞭な3次元生成は難しいままである。
本稿では,2段階のフローマッチングフレームワークであるArticFlowを紹介し,ノイズから目標点までの制御可能な速度場を明示的な動作制御の下で学習する。
ArticFlowのカップル
一 騒音を形状優先符号に伝達する潜流
(ii) 動作と形状に条件付けられた点を輸送する点の流れにより、単一のモデルが多様な明瞭なカテゴリーを表現し、行動全体にわたって一般化することができる。
MuJoCo Menagerieでは、ArticFlowは生成モデルとニューラルシミュレータの両方として機能し、コンパクトな事前から動作条件キネマティクスを予測し、潜時補間によって新しい形態を合成する。
ArticFlowは、オブジェクト固有のシミュレータや静的ポイントクラウドジェネレータの動作条件のバリエーションと比較して、キネマティックな精度と形状の質の向上を実現している。
その結果, 動作条件付きフローマッチングは, 制御可能かつ高品質な調音機構生成のための実用的な経路であることが示唆された。
関連論文リスト
- FlowMotion: Target-Predictive Conditional Flow Matching for Jitter-Reduced Text-Driven Human Motion Generation [0.6554326244334868]
FlowMotionは、人間の3Dモーション生成における目標運動をより正確に予測することに焦点を当てたトレーニング目標を組み込んでいる。
FlowMotionは最先端のジッタパフォーマンスを実現し、KITデータセットで最高のジッタ、HumanML3Dデータセットで2番目に高いジッタを実現している。
論文 参考訳(メタデータ) (2025-04-02T03:55:21Z) - Not-So-Optimal Transport Flows for 3D Point Cloud Generation [58.164908756416615]
3次元点雲の生成モデルの学習は、3次元点雲の生成学習における根本的な問題の1つである。
本稿では,最近提案された同変OTフローを解析し,点ベース分子データに対する置換不変な生成モデルを学習する。
提案手法は, 広範囲な非条件生成および形状完備化において, 拡散および流動に基づく事前アプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-02-18T02:37:34Z) - ActionFlow: Equivariant, Accurate, and Efficient Policies with Spatially Symmetric Flow Matching [20.20511152176522]
ActionFlowは、空間対称性誘導バイアスを統合するポリシークラスである。
表現レベルでは、ActionFlowはSE(3)不変トランスフォーマーアーキテクチャを導入している。
ActionFlowは、最先端の深層生成モデルであるFlow Matchingを活用する。
論文 参考訳(メタデータ) (2024-09-06T19:30:36Z) - Generalizable Implicit Motion Modeling for Video Frame Interpolation [51.966062283735596]
フローベースビデオフレーム補間(VFI)における動きの重要性
本稿では,動きモデリングVFIの新規かつ効果的なアプローチである一般インプリシット・モーション・モデリング(IMM)を紹介する。
我々のGIMMは、正確にモデル化された動きを供給することによって、既存のフローベースVFIワークと容易に統合できる。
論文 参考訳(メタデータ) (2024-07-11T17:13:15Z) - SemlaFlow -- Efficient 3D Molecular Generation with Latent Attention and Equivariant Flow Matching [43.56824843205882]
SemlaはスケーラブルなE(3)等価メッセージパッシングアーキテクチャである。
SemlaFlowは、原子タイプ、座標、結合タイプ、正式な電荷の結合分布を生成するために訓練されている。
本モデルでは,20段階のサンプリングを行ない,ベンチマークデータセットの最先端結果を生成する。
論文 参考訳(メタデータ) (2024-06-11T13:51:51Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - From Zero to Turbulence: Generative Modeling for 3D Flow Simulation [45.626346087828765]
本稿では, 乱流シミュレーションを, 初期流れの状態に依存することなく, 可能な全ての乱流状態の多様体を直接学習する生成タスクとして提案する。
生成モデルでは、未知の物体による乱流の分布を捉え、下流アプリケーションのための高品質で現実的なサンプルを生成する。
論文 参考訳(メタデータ) (2023-05-29T18:20:28Z) - MoCo-Flow: Neural Motion Consensus Flow for Dynamic Humans in Stationary
Monocular Cameras [98.40768911788854]
4次元連続時間変動関数を用いて動的シーンをモデル化する表現であるMoCo-Flowを紹介する。
私たちの研究の中心には、運動フロー上の運動コンセンサス正規化によって制約される、新しい最適化の定式化がある。
複雑度の異なる人間の動きを含む複数のデータセット上でMoCo-Flowを広範囲に評価した。
論文 参考訳(メタデータ) (2021-06-08T16:03:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。