論文の概要: Learning Native Continuation for Action Chunking Flow Policies
- arxiv url: http://arxiv.org/abs/2602.12978v1
- Date: Fri, 13 Feb 2026 14:56:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.990201
- Title: Learning Native Continuation for Action Chunking Flow Policies
- Title(参考訳): アクションチャンキングフローポリシのためのネイティブ継続学習
- Authors: Yufeng Liu, Hang Yu, Juntu Zhao, Bocheng Li, Di Zhang, Mingzhu Li, Wenxuan Wu, Yingdong Hu, Junyuan Xie, Junliang Guo, Dequan Wang, Yang Gao,
- Abstract要約: アクションチャンキングにより、VLA(Vision Language Action)モデルがリアルタイムで実行されるが、単純なチャンク実行はしばしばチャンク境界で不連続を示す。
本稿では,アクションチャンクフローに基づくVLAポリシーのトレーニング時間継続手法であるLegotoを提案する。
レガートはよりスムーズな軌道を発生し、実行中にスムーズなマルチモーダルスイッチングを減少させる。
- 参考スコア(独自算出の注目度): 40.56048312294812
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Action chunking enables Vision Language Action (VLA) models to run in real time, but naive chunked execution often exhibits discontinuities at chunk boundaries. Real-Time Chunking (RTC) alleviates this issue but is external to the policy, leading to spurious multimodal switching and trajectories that are not intrinsically smooth. We propose Legato, a training-time continuation method for action-chunked flow-based VLA policies. Specifically, Legato initializes denoising from a schedule-shaped mixture of known actions and noise, exposing the model to partial action information. Moreover, Legato reshapes the learned flow dynamics to ensure that the denoising process remains consistent between training and inference under per-step guidance. Legato further uses randomized schedule condition during training to support varying inference delays and achieve controllable smoothness. Empirically, Legato produces smoother trajectories and reduces spurious multimodal switching during execution, leading to less hesitation and shorter task completion time. Extensive real-world experiments show that Legato consistently outperforms RTC across five manipulation tasks, achieving approximately 10% improvements in both trajectory smoothness and task completion time.
- Abstract(参考訳): アクションチャンキングにより、VLA(Vision Language Action)モデルがリアルタイムで実行されるが、単純なチャンク実行はしばしばチャンク境界で不連続を示す。
リアルタイムチャンキング(RTC)はこの問題を緩和するが、ポリシーとは異なっており、本質的にスムーズではない急激なマルチモーダルスイッチングとトラジェクトリをもたらす。
本稿では,アクションチャンクフローに基づくVLAポリシーのトレーニング時間継続手法であるLegotoを提案する。
特にLegotoは、スケジュール型の既知のアクションとノイズの混合からデノイングを初期化し、そのモデルを部分的なアクション情報に公開する。
さらにLegoto氏は、学習フローのダイナミクスを再確認して、ステップ毎のガイダンスの下でのトレーニングと推論の間に、認知プロセスが一貫していることを保証する。
Legatoはさらに、トレーニング中にランダム化されたスケジュール条件を使用して、様々な推論遅延をサポートし、制御可能な滑らかさを達成する。
経験的に、Legotoはよりスムーズな軌道を生成し、実行中にスムーズなマルチモーダルスイッチを減らし、ためらわず、タスク完了時間が短縮される。
大規模な実世界の実験により、Legotoは5つの操作タスクでRTCを一貫して上回り、軌道の滑らかさとタスク完了時間の両方で約10%の改善を実現している。
関連論文リスト
- Trust Region Continual Learning as an Implicit Meta-Learner [3.705371747297478]
我々は,生産的リプレイとフィッシャー計量信頼領域制約を併用した,エフェトラスト領域連続学習のハイブリッド視点について検討する。
局所近似では,MAMLスタイルの解釈を単一の暗黙的な内部ステップで行うことができた。
これにより、連続学習における創発的なメタラーニング特性が得られる。
論文 参考訳(メタデータ) (2026-02-02T18:19:16Z) - VLA-RAIL: A Real-Time Asynchronous Inference Linker for VLA Models and Robots [5.308743386891208]
VLA(Vision-Language-Action)モデルは、ロボット工学において画期的な進歩を遂げた。
連続したアクションチャンクのキューを融合する戦略は、VLAモデル全体のパフォーマンスに大きな影響を与える。
既存の方法は、ロボットアクションの実行時にジッタ、ストール、あるいは停止に悩まされる。
本稿では,モデル推論とロボット動作制御を非同期に行うように設計された新しいフレームワークであるVLA-RAILを紹介する。
論文 参考訳(メタデータ) (2025-12-31T06:59:42Z) - Steering Vision-Language-Action Models as Anti-Exploration: A Test-Time Scaling Approach [78.4812458793128]
動作チャンクの高忠実度検証に軽量な擬数推定器を適用したテスト時間スケーリングフレームワークである textbfTACO を提案する。
我々の手法は、オフライン強化学習(RL)における古典的な反探索原理に似ており、勾配のないため、計算上の大きな恩恵をもたらす。
論文 参考訳(メタデータ) (2025-12-02T14:42:54Z) - Dynamic Orthogonal Continual Fine-tuning for Mitigating Catastrophic Forgettings [13.325021114990241]
大規模言語モデルの継続的な学習において、破滅的な忘れは依然として重要な課題である。
本研究では,動的直交連続(DOC)ファインチューニングを提案する。これは関数方向のドリフトを追跡し,ファインチューニングプロセス中に動的に更新する新しいアプローチである。
論文 参考訳(メタデータ) (2025-09-28T13:55:05Z) - Real-Time Execution of Action Chunking Flow Policies [49.1574468325115]
本稿では,アクションインタラクションシステムの非同期実行を可能にする新しい推論時アルゴリズムを提案する。
これは、再トレーニングなしでボックスから実行する拡散またはVLAベースのシステムに適用できる。
その結果、RTCは高速で、性能が高く、推論操作に対して一意に堅牢であることがわかった。
論文 参考訳(メタデータ) (2025-06-09T01:01:59Z) - Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - Boundary-Denoising for Video Activity Localization [57.9973253014712]
本稿では,映像活動のローカライゼーション問題について,認知的視点から検討する。
具体的には,DenoiseLocというエンコーダデコーダモデルを提案する。
実験によると、DenoiseLocはいくつかのビデオアクティビティ理解タスクで%前進している。
論文 参考訳(メタデータ) (2023-04-06T08:48:01Z) - Continuous Transition: Improving Sample Efficiency for Continuous
Control Problems via MixUp [119.69304125647785]
本稿では,連続的遷移を構築するための簡潔かつ強力な手法を提案する。
具体的には、連続的な遷移を線形に補間することにより、トレーニングのための新しい遷移を合成することを提案する。
また, 建設過程を自動案内する判別器を開発した。
論文 参考訳(メタデータ) (2020-11-30T01:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。