論文の概要: Training-Time Action Conditioning for Efficient Real-Time Chunking
- arxiv url: http://arxiv.org/abs/2512.05964v2
- Date: Tue, 09 Dec 2025 01:07:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 14:12:22.925765
- Title: Training-Time Action Conditioning for Efficient Real-Time Chunking
- Title(参考訳): 効率的なリアルタイムチャンキングのためのトレーニング・タイム・アクション・コンディショニング
- Authors: Kevin Black, Allen Z. Ren, Michael Equi, Sergey Levine,
- Abstract要約: トレーニング時の推論遅延をシミュレーションし,アクションプレフィックスを直接条件付けすることで,推論時のオーバーヘッドを解消する。
シミュレーション実験では、トレーニング時間RTCは推論時間RTCよりも高い推論遅延で優れることがわかった。
実時間ロボット制御において,トレーニング時動作条件付けは推論時インペインティングの代替となることが示唆された。
- 参考スコア(独自算出の注目度): 45.91723746443767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-time chunking (RTC) enables vision-language-action models (VLAs) to generate smooth, reactive robot trajectories by asynchronously predicting action chunks and conditioning on previously committed actions via inference-time inpainting. However, this inpainting method introduces computational overhead that increases inference latency. In this work, we propose a simple alternative: simulating inference delay at training time and conditioning on action prefixes directly, eliminating any inference-time overhead. Our method requires no modifications to the model architecture or robot runtime, and can be implemented with only a few additional lines of code. In simulated experiments, we find that training-time RTC outperforms inference-time RTC at higher inference delays. In real-world experiments on box building and espresso making tasks with the $π_{0.6}$ VLA, we demonstrate that training-time RTC maintains both task performance and speed parity with inference-time RTC while being computationally cheaper. Our results suggest that training-time action conditioning is a practical drop-in replacement for inference-time inpainting in real-time robot control.
- Abstract(参考訳): リアルタイムチャンキング(RTC)は、視覚言語アクションモデル(VLA)が、非同期にアクションチャンクを予測し、推論時インペインティングによって以前にコミットされたアクションを条件付けすることにより、スムーズでリアクティブなロボット軌道を生成することを可能にする。
しかし、この塗装法は、推論遅延を増大させる計算オーバーヘッドをもたらす。
本研究では、トレーニング時の推論遅延をシミュレーションし、アクションプレフィックスを直接条件付けし、推論時のオーバーヘッドをなくすという簡単な方法を提案する。
提案手法では,モデルアーキテクチャやロボットランタイムの変更は必要とせず,数行のコードだけで実装できる。
シミュレーション実験では、トレーニング時間RTCは推論時間RTCよりも高い推論遅延で優れることがわかった。
実世界の箱造りとエスプレッソによるVLAによるタスク作成実験において、トレーニング時間RTCが計算コストを抑えながら、推論時間RTCとタスク性能と速度の同等性の両方を維持していることを示した。
実時間ロボット制御において,トレーニング時動作条件付けは推論時インペインティングの代替となることが示唆された。
関連論文リスト
- RaC: Robot Learning for Long-Horizon Tasks by Scaling Recovery and Correction [23.89121398540929]
本稿では,擬似学習事前学習後のループ内ロールアウトトレーニングの新たな段階であるRaCを紹介する。
RaCでは、リカバリと修正行動を示す人間の介入軌道に関するロボットポリシーを微調整する。
我々は、RaCが10$times$少ないデータ収集時間とサンプルを使用して、従来の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-09-09T17:41:29Z) - Real-Time Execution of Action Chunking Flow Policies [49.1574468325115]
本稿では,アクションインタラクションシステムの非同期実行を可能にする新しい推論時アルゴリズムを提案する。
これは、再トレーニングなしでボックスから実行する拡散またはVLAベースのシステムに適用できる。
その結果、RTCは高速で、性能が高く、推論操作に対して一意に堅牢であることがわかった。
論文 参考訳(メタデータ) (2025-06-09T01:01:59Z) - First-Passage Approach to Optimizing Perturbations for Improved Training of Machine Learning Models [0.0]
機械学習プロトコルを第1パスプロセスとみなし、摂動に対する応答を考察する。
摂動学習プロセスが準定常状態に達した場合、単一摂動周波数での応答は広い周波数でその振舞いを予測することができることを示す。
論文 参考訳(メタデータ) (2025-02-06T14:53:21Z) - Autonomous Vehicle Controllers From End-to-End Differentiable Simulation [57.278726604424556]
そこで我々は,AVコントローラのトレーニングにAPG(analytic Policy gradients)アプローチを適用可能なシミュレータを提案し,その設計を行う。
提案するフレームワークは, エージェントがより根底的なポリシーを学ぶのを助けるために, 環境力学の勾配を役立てる, エンド・ツー・エンドの訓練ループに, 微分可能シミュレータを組み込む。
ダイナミクスにおけるパフォーマンスとノイズに対する堅牢性の大幅な改善と、全体としてより直感的なヒューマンライクな処理が見られます。
論文 参考訳(メタデータ) (2024-09-12T11:50:06Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Obstacle Avoidance for Robotic Manipulator in Joint Space via Improved
Proximal Policy Optimization [6.067589886362815]
本稿では,6-DoFマニピュレータのタスク空間から関節空間にマップするために,改良されたPPOアルゴリズムを用いて深層ニューラルネットワークを訓練する。
実ロボットでそのようなタスクを訓練するのは時間を要するので、モデルを訓練するためのシミュレーション環境を開発する。
実験結果から,ロボットは非構造環境下で1つの目標をトラッキングしたり,複数の目標に到達することができた。
論文 参考訳(メタデータ) (2022-10-03T10:21:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。