論文の概要: KoopMotion: Learning Almost Divergence Free Koopman Flow Fields for Motion Planning
- arxiv url: http://arxiv.org/abs/2509.09074v1
- Date: Thu, 11 Sep 2025 00:42:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.185928
- Title: KoopMotion: Learning Almost Divergence Free Koopman Flow Fields for Motion Planning
- Title(参考訳): KoopMotion: 運動計画のためのほぼ多様性のないクープマンフロー場を学習する
- Authors: Alice Kate Li, Thales C Silva, Victoria Edwards, Vijay Kumar, M. Ani Hsieh,
- Abstract要約: 本研究では,任意の初期状態から所望の基準軌道へロボットを駆動する流れ場に基づく運動計画法を提案する。
KoopMotionは運動フロー場を動的システムとして表現し、Koopman Operatorsによってパラメータ化され、望ましい軌道を模倣する。
LASAデータセットの3%しか必要とせず、高密度な動き計画を生成する。
- 参考スコア(独自算出の注目度): 10.112572107877076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a novel flow field-based motion planning method that drives a robot from any initial state to a desired reference trajectory such that it converges to the trajectory's end point. Despite demonstrated efficacy in using Koopman operator theory for modeling dynamical systems, Koopman does not inherently enforce convergence to desired trajectories nor to specified goals -- a requirement when learning from demonstrations (LfD). We present KoopMotion which represents motion flow fields as dynamical systems, parameterized by Koopman Operators to mimic desired trajectories, and leverages the divergence properties of the learnt flow fields to obtain smooth motion fields that converge to a desired reference trajectory when a robot is placed away from the desired trajectory, and tracks the trajectory until the end point. To demonstrate the effectiveness of our approach, we show evaluations of KoopMotion on the LASA human handwriting dataset and a 3D manipulator end-effector trajectory dataset, including spectral analysis. We also perform experiments on a physical robot, verifying KoopMotion on a miniature autonomous surface vehicle operating in a non-static fluid flow environment. Our approach is highly sample efficient in both space and time, requiring only 3\% of the LASA dataset to generate dense motion plans. Additionally, KoopMotion provides a significant improvement over baselines when comparing metrics that measure spatial and temporal dynamics modeling efficacy.
- Abstract(参考訳): 本研究では,任意の初期状態から所望の基準軌道へロボットを駆動する流れ場に基づく運動計画法を提案する。
力学系をモデル化するためのクープマン作用素理論の有効性は証明されているが、クープマンは本質的に所望の軌道や特定の目標への収束を強制しない。
ロボットが所望の軌道から遠ざかるときに、所望の基準軌道に収束する滑らかな運動場を得るため、学習した流れ場の分散特性を活用し、その軌道を終点まで追跡する。
提案手法の有効性を示すため,LASA人手書きデータセットとスペクトル解析を含む3次元マニピュレータ・エンドエフェクタ・トラジェクタ・データセットを用いて,KoopMotionの評価を行った。
また,非静圧流体環境下で動作している小型の自律表面車両上で,KoopMotionを検証する物理ロボットの実験を行った。
LASAデータセットの35%しか必要とせず、高密度な動き計画を生成する。
さらにKoopMotionは、空間的および時間的ダイナミクスモデリングの有効性を測定するメトリクスの比較において、ベースラインよりも大幅に改善されている。
関連論文リスト
- DeMo++: Motion Decoupling for Autonomous Driving [41.6423398623095]
動作意図を2つの異なるコンポーネントに分離するフレームワークであるDeMo++を提案する。
隣接するシーンにおける動き間の関係を探索するために,クロスシーンの軌道間相互作用機構を導入する。
DeMo++は、モーション予測(Argoverse 2とnuScenes)、モーション計画(nuPlan)、エンドツーエンド計画(SIM)など、さまざまなベンチマークで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-07-23T09:11:25Z) - EMoTive: Event-guided Trajectory Modeling for 3D Motion Estimation [59.33052312107478]
イベントカメラは、シーン変化に対する連続的適応ピクセルレベル応答による3次元モーション推定の可能性を提供する。
本稿では,イベント誘導パラメトリック曲線を用いた一様軌道をモデル化するイベントベースフレームワークであるEMoveについて述べる。
動作表現には,事象誘導下での空間的特徴と時間的特徴を融合する密度認識適応機構を導入する。
最終3次元運動推定は、パラメトリック軌道、流れ、深度運動場の多時間サンプリングによって達成される。
論文 参考訳(メタデータ) (2025-03-14T13:15:54Z) - Degrees of Freedom Matter: Inferring Dynamics from Point Trajectories [28.701879490459675]
ニューラルネットワークによってパラメータ化された暗黙の運動場を学習し、同一領域内の新規点の動きを予測することを目的とする。
我々は、SIRENが提供する固有正則化を活用し、入力層を変更して時間的に滑らかな運動場を生成する。
実験では, 未知点軌道の予測におけるモデルの性能評価と, 変形を伴う時間メッシュアライメントへの応用について検討した。
論文 参考訳(メタデータ) (2024-06-05T21:02:10Z) - OFMPNet: Deep End-to-End Model for Occupancy and Flow Prediction in Urban Environment [0.0]
環境中の全ての動的オブジェクトの将来の挙動を予測するために,エンド・ツー・エンドのニューラルネットワーク手法を提案する。
本稿では, 終点誤差の大幅な低減を図った新しい時間重み付きモーションフロー損失を提案する。
論文 参考訳(メタデータ) (2024-04-02T19:37:58Z) - Generative Modeling with Phase Stochastic Bridges [49.4474628881673]
拡散モデル(DM)は、連続入力のための最先端の生成モデルを表す。
我々はtextbfphase space dynamics に基づく新しい生成モデリングフレームワークを提案する。
我々のフレームワークは、動的伝播の初期段階において、現実的なデータポイントを生成する能力を示す。
論文 参考訳(メタデータ) (2023-10-11T18:38:28Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions [65.84090965167535]
本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
論文 参考訳(メタデータ) (2022-06-29T18:47:05Z) - EM-driven unsupervised learning for efficient motion segmentation [3.5232234532568376]
本稿では,光学的流れからの動作分割のためのCNNに基づく完全教師なし手法を提案する。
本研究では,移動分割ニューラルネットワークの損失関数とトレーニング手順を活用するために,期待最大化(EM)フレームワークを利用する。
提案手法は, 教師なし手法よりも優れ, 効率的である。
論文 参考訳(メタデータ) (2022-01-06T14:35:45Z) - Any Motion Detector: Learning Class-agnostic Scene Dynamics from a
Sequence of LiDAR Point Clouds [4.640835690336654]
動き検出と動きパラメータ推定のための時間的文脈アグリゲーションの新しいリアルタイム手法を提案する。
本稿では,固有点雲列の固有オドメトリック変換に匹敵する性能で,リアルタイムな推論を実現するためのエゴモーション補償層を提案する。
論文 参考訳(メタデータ) (2020-04-24T10:40:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。