論文の概要: Streaming Flow Policy: Simplifying diffusion$/$flow-matching policies by treating action trajectories as flow trajectories
- arxiv url: http://arxiv.org/abs/2505.21851v1
- Date: Wed, 28 May 2025 00:48:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.343399
- Title: Streaming Flow Policy: Simplifying diffusion$/$flow-matching policies by treating action trajectories as flow trajectories
- Title(参考訳): ストリームフローポリシー:アクショントラジェクトリをフロートラジェクトリとして扱うことで拡散$/$フローマッチングポリシを簡略化する
- Authors: Sunshine Jiang, Xiaolin Fang, Nicholas Roy, Tomás Lozano-Pérez, Leslie Pack Kaelbling, Siddharth Ancha,
- Abstract要約: 動作軌跡をフロー軌跡として扱うことで拡散$/$flowポリシーを簡素化する。
我々のアルゴリズムは、最後のアクションの周囲の狭いガウシアンからサンプリングする。
フローマッチングによって学習された速度場を漸進的に統合し、単一の軌道を構成する一連のアクションを生成する。
- 参考スコア(独自算出の注目度): 40.67946168216781
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in diffusion$/$flow-matching policies have enabled imitation learning of complex, multi-modal action trajectories. However, they are computationally expensive because they sample a trajectory of trajectories: a diffusion$/$flow trajectory of action trajectories. They discard intermediate action trajectories, and must wait for the sampling process to complete before any actions can be executed on the robot. We simplify diffusion$/$flow policies by treating action trajectories as flow trajectories. Instead of starting from pure noise, our algorithm samples from a narrow Gaussian around the last action. Then, it incrementally integrates a velocity field learned via flow matching to produce a sequence of actions that constitute a single trajectory. This enables actions to be streamed to the robot on-the-fly during the flow sampling process, and is well-suited for receding horizon policy execution. Despite streaming, our method retains the ability to model multi-modal behavior. We train flows that stabilize around demonstration trajectories to reduce distribution shift and improve imitation learning performance. Streaming flow policy outperforms prior methods while enabling faster policy execution and tighter sensorimotor loops for learning-based robot control. Project website: https://streaming-flow-policy.github.io/
- Abstract(参考訳): 拡散$/$flow-matchingポリシーの最近の進歩は、複雑なマルチモーダルな行動軌跡の模倣学習を可能にした。
しかし、それらは運動軌跡の軌跡(拡散$/$flow軌跡)をサンプリングするため、計算的に高価である。
彼らは中間動作軌跡を破棄し、サンプリングプロセスが完了するまでロボット上で何らかの動作を実行するのを待たなければならない。
動作軌跡をフロー軌跡として扱うことで拡散$/$flowポリシーを簡素化する。
純粋なノイズから始める代わりに、我々のアルゴリズムは最後のアクションの周囲の狭いガウスからサンプルをサンプリングする。
そして、フローマッチングによって学習された速度場を漸進的に統合し、単一の軌道を構成する一連のアクションを生成する。
これにより、フローサンプリングプロセス中にアクションをロボットにオンザフライでストリーミングすることができ、水平方針実行の後退に適している。
ストリーミングにもかかわらず,本手法はマルチモーダル動作をモデル化する能力を維持している。
実演軌道の周囲を安定させる流れを訓練し,分布シフトを低減し,模倣学習性能を向上させる。
ストリーミングフローポリシーは、より高速なポリシー実行と学習に基づくロボット制御のためのより緊密な感覚運動回路を実現するとともに、従来の手法よりも優れる。
プロジェクトウェブサイト: https://streaming-flow-policy.github.io/
関連論文リスト
- GoalFlow: Goal-Driven Flow Matching for Multimodal Trajectories Generation in End-to-End Autonomous Driving [16.620086368657834]
GoalFlowは高品質なマルチモーダル軌道を生成するためのエンドツーエンドの自動運転手法である。
生成過程を制約し、高品質でマルチモーダルな軌道を生成する。
GoalFlowは最先端のパフォーマンスを実現し、自律運転のための堅牢なマルチモーダル軌道を提供する。
論文 参考訳(メタデータ) (2025-03-07T18:52:08Z) - Streaming Diffusion Policy: Fast Policy Synthesis with Variable Noise Diffusion Models [24.34842113104745]
拡散モデルはロボット模倣学習に急速に採用され、複雑なタスクを自律的に実行できるようになった。
近年の研究では、拡散過程の蒸留が政策合成の加速にどのように役立つかが研究されている。
本稿では,SDP(Streaming Diffusion Policy)を提案する。
論文 参考訳(メタデータ) (2024-06-07T10:13:44Z) - PeRFlow: Piecewise Rectified Flow as Universal Plug-and-Play Accelerator [73.80050807279461]
Piecewise Rectified Flow (PeRFlow) は拡散モデルの高速化のためのフローベース手法である。
PeRFlowは数ステップの世代で優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-05-13T07:10:53Z) - Optimal Flow Matching: Learning Straight Trajectories in Just One Step [89.37027530300617]
我々は,新しいtextbf Optimal Flow Matching (OFM) アプローチを開発し,理論的に正当化する。
これは2次輸送のための直列のOT変位をFMの1ステップで回復することを可能にする。
提案手法の主な考え方は,凸関数によってパラメータ化されるFMのベクトル場の利用である。
論文 参考訳(メタデータ) (2024-03-19T19:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。