論文の概要: ProjFlow: Projection Sampling with Flow Matching for Zero-Shot Exact Spatial Motion Control
- arxiv url: http://arxiv.org/abs/2602.22742v1
- Date: Thu, 26 Feb 2026 08:29:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.595605
- Title: ProjFlow: Projection Sampling with Flow Matching for Zero-Shot Exact Spatial Motion Control
- Title(参考訳): ProjFlow:ゼロショット特殊空間運動制御のためのフローマッチングによる投影サンプリング
- Authors: Akihisa Watanabe, Qing Yu, Edgar Simo-Serra, Kent Fujiwara,
- Abstract要約: ProjFlowは、運動リアリズムを保ちながら、線形空間制約のゼロショット、正確な満足度を達成する訓練不要なサンプルラーである。
鍵となる進歩は、骨格トポロジーを符号化する新しいキネマティクス対応計量である。
代表的な応用, モーションインペイント, 2D-to-3Dリフト実験では, ProjFlowがゼロショットベースラインよりも正確な制約満足度と一致し, 現実性を向上することを示した。
- 参考スコア(独自算出の注目度): 24.778385441690464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating human motion with precise spatial control is a challenging problem. Existing approaches often require task-specific training or slow optimization, and enforcing hard constraints frequently disrupts motion naturalness. Building on the observation that many animation tasks can be formulated as a linear inverse problem, we introduce ProjFlow, a training-free sampler that achieves zero-shot, exact satisfaction of linear spatial constraints while preserving motion realism. Our key advance is a novel kinematics-aware metric that encodes skeletal topology. This metric allows the sampler to enforce hard constraints by distributing corrections coherently across the entire skeleton, avoiding the unnatural artifacts of naive projection. Furthermore, for sparse inputs, such as filling in long gaps between a few keyframes, we introduce a time-varying formulation using pseudo-observations that fade during sampling. Extensive experiments on representative applications, motion inpainting, and 2D-to-3D lifting, demonstrate that ProjFlow achieves exact constraint satisfaction and matches or improves realism over zero-shot baselines, while remaining competitive with training-based controllers.
- Abstract(参考訳): 正確な空間制御による人間の動きの生成は難しい問題である。
既存のアプローチでは、しばしばタスク固有のトレーニングや遅い最適化を必要とし、厳しい制約を課すことは、運動の自然性を乱す。
本稿では,多くのアニメーションタスクを線形逆問題として定式化できることを前提に,運動リアリズムを保ちながら,線形空間制約のゼロショット的,正確な満足度を実現する訓練不要なサンプルラーであるProjFlowを紹介する。
我々の重要な進歩は、骨格トポロジーを符号化する新しいキネマティクス対応計量である。
この計量により、サンプルは骨格全体に整合的に修正を分散させ、非自然的な射影のアーチファクトを避けることで、厳密な制約を強制することができる。
さらに,数個のキーフレーム間の長い隙間を埋めるなどのスパース入力に対して,サンプリング中にフェードする擬似観測を用いた時間変化定式化を導入する。
代表的なアプリケーション、モーションインペイント、および2D-to-3Dリフトに関する広範な実験は、トレーニングベースのコントローラーと競合しながら、ProjFlowが正確な制約満足度と一致し、ゼロショットベースラインよりもリアリズムを向上することを示した。
関連論文リスト
- GeoMotion: Rethinking Motion Segmentation via Latent 4D Geometry [61.24189040578178]
そこで本研究では,注目機構を介し,潜在特徴表現から移動対象を直接推論する完全学習型アプローチを提案する。
我々の重要な洞察は、明示的な対応推定を回避し、代わりに、モデルが暗黙的にオブジェクトとカメラの動きを歪めることを学ぶことである。
提案手法は,最先端の動作セグメンテーション性能を高い効率で達成する。
論文 参考訳(メタデータ) (2026-02-25T11:36:33Z) - Inference-Time Gaze Refinement for Micro-Expression Recognition: Enhancing Event-Based Eye Tracking with Motion-Aware Post-Processing [2.5465367830324905]
イベントベースの視線追跡は、きめ細かい認知状態の推測に重要な可能性を秘めている。
本稿では、既存の事象に基づく視線推定モデルの出力を高めるために、モデルに依存しない推論時間改善フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-14T14:48:11Z) - SuperFlow++: Enhanced Spatiotemporal Consistency for Cross-Modal Data Pretraining [62.433137130087445]
SuperFlow++は、連続するカメラペアを使用して事前トレーニングと下流タスクを統合する新しいフレームワークである。
SuperFlow++は様々なタスクや運転条件で最先端のメソッドよりも優れています。
強力な一般化性と計算効率により、SuperFlow++は、自動運転におけるデータ効率の高いLiDARベースの認識のための新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2025-03-25T17:59:57Z) - EMoTive: Event-guided Trajectory Modeling for 3D Motion Estimation [59.33052312107478]
イベントカメラは、シーン変化に対する連続的適応ピクセルレベル応答による3次元モーション推定の可能性を提供する。
本稿では,イベント誘導パラメトリック曲線を用いた一様軌道をモデル化するイベントベースフレームワークであるEMoveについて述べる。
動作表現には,事象誘導下での空間的特徴と時間的特徴を融合する密度認識適応機構を導入する。
最終3次元運動推定は、パラメトリック軌道、流れ、深度運動場の多時間サンプリングによって達成される。
論文 参考訳(メタデータ) (2025-03-14T13:15:54Z) - Degrees of Freedom Matter: Inferring Dynamics from Point Trajectories [28.701879490459675]
ニューラルネットワークによってパラメータ化された暗黙の運動場を学習し、同一領域内の新規点の動きを予測することを目的とする。
我々は、SIRENが提供する固有正則化を活用し、入力層を変更して時間的に滑らかな運動場を生成する。
実験では, 未知点軌道の予測におけるモデルの性能評価と, 変形を伴う時間メッシュアライメントへの応用について検討した。
論文 参考訳(メタデータ) (2024-06-05T21:02:10Z) - Efficient Text-driven Motion Generation via Latent Consistency Training [21.348658259929053]
非線形逆拡散軌道を解くための動き潜時整合トレーニングフレームワーク(MLCT)を提案する。
これらの拡張を組み合わせることで、非画素モダリティおよび潜在表現空間における安定かつ一貫性のあるトレーニングを実現する。
論文 参考訳(メタデータ) (2024-05-05T02:11:57Z) - Smooth and Sparse Latent Dynamics in Operator Learning with Jerk
Regularization [1.621267003497711]
本稿では,圧縮された潜在空間の学習にジャッジ正規化を組み込んだ連続演算子学習フレームワークを提案する。
このフレームワークは、任意の所望の空間的あるいは時間的解像度での推論を可能にする。
この枠組みの有効性は、ナヴィエ・ストークス方程式によって支配される二次元非定常流問題によって証明される。
論文 参考訳(メタデータ) (2024-02-23T22:38:45Z) - Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions [65.84090965167535]
本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
論文 参考訳(メタデータ) (2022-06-29T18:47:05Z) - First Steps: Latent-Space Control with Semantic Constraints for
Quadruped Locomotion [73.37945453998134]
従来の四重化制御のアプローチでは、単純化された手作りのモデルが採用されている。
これにより、有効な運動範囲が縮小されているため、ロボットの能力が大幅に低下する。
この研究において、これらの課題は、構造化潜在空間における最適化として四重化制御をフレーミングすることによって解決される。
深い生成モデルは、実現可能な関節構成の統計的表現を捉え、一方、複雑な動的および終端的制約は高レベルな意味的指標によって表現される。
実世界とシミュレーションの両方で最適化された移動軌跡の実現可能性を検証する。
論文 参考訳(メタデータ) (2020-07-03T07:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。