論文の概要: Towards Deploying VLA without Fine-Tuning: Plug-and-Play Inference-Time VLA Policy Steering via Embodied Evolutionary Diffusion
- arxiv url: http://arxiv.org/abs/2511.14178v1
- Date: Tue, 18 Nov 2025 06:30:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.967449
- Title: Towards Deploying VLA without Fine-Tuning: Plug-and-Play Inference-Time VLA Policy Steering via Embodied Evolutionary Diffusion
- Title(参考訳): 微調整のないVLAの展開に向けて: 進化的拡散によるプラグイン・アンド・プレイ型VLAポリシーステアリング
- Authors: Zhuo Li, Junjia Liu, Zhipeng Dong, Tao Teng, Quentin Rouxel, Darwin Caldwell, Fei Chen,
- Abstract要約: VLA-Pilotは、事前訓練されたVLAポリシーのゼロショット展開のための、プラグアンドプレイの推論時ポリシーステアリング手法である。
実験結果から,VLA-Pilotは市販のVLA政策の成功率を大幅に向上させることが示された。
- 参考スコア(独自算出の注目度): 8.05008302748311
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-Language-Action (VLA) models have demonstrated significant potential in real-world robotic manipulation. However, pre-trained VLA policies still suffer from substantial performance degradation during downstream deployment. Although fine-tuning can mitigate this issue, its reliance on costly demonstration collection and intensive computation makes it impractical in real-world settings. In this work, we introduce VLA-Pilot, a plug-and-play inference-time policy steering method for zero-shot deployment of pre-trained VLA without any additional fine-tuning or data collection. We evaluate VLA-Pilot on six real-world downstream manipulation tasks across two distinct robotic embodiments, encompassing both in-distribution and out-of-distribution scenarios. Experimental results demonstrate that VLA-Pilot substantially boosts the success rates of off-the-shelf pre-trained VLA policies, enabling robust zero-shot generalization to diverse tasks and embodiments. Experimental videos and code are available at: https://rip4kobe.github.io/vla-pilot/.
- Abstract(参考訳): VLA(Vision-Language-Action)モデルは、現実世界のロボット操作において大きな可能性を示している。
しかしながら、トレーニング済みのVLAポリシは、ダウンストリームデプロイメント時のパフォーマンス低下に悩まされている。
微調整はこの問題を軽減することができるが、コストのかかる実演収集と集中的な計算に依存しているため、現実の環境では実用的ではない。
本研究では,プリトレーニング済みVLAのゼロショット展開のためのプラグイン・アンド・プレイ型推論時ポリシーステアリング手法であるVLA-Pilotについて,追加の微調整やデータ収集を行うことなく紹介する。
VLA-Pilotは,2つの異なるロボットエボディメントにまたがる6つの実世界の下流操作タスクに対して,分布内および分布外の両方を包含する評価を行った。
実験結果から,VLA-Pilotは市販の事前訓練型VLAポリシーの成功率を大幅に向上させ,多様なタスクや実施形態に対して堅牢なゼロショットの一般化を可能にした。
実験ビデオとコードは、https://rip4kobe.github.io/vla-pilot/.com/で公開されている。
関連論文リスト
- VLA-0: Building State-of-the-Art VLAs with Zero Modification [8.916252953026888]
VLA(Vision-Language-Action Model)は、汎用的なロボット操作を可能にするための大きな約束を持っている。
この研究はVLA-0を導入し、アクションを直接テキストとして表現する最も単純な戦略を解明する。
VLA-0は有効であるだけでなく、驚くほど強力である。
論文 参考訳(メタデータ) (2025-10-15T00:31:10Z) - DriveVLA-W0: World Models Amplify Data Scaling Law in Autonomous Driving [52.63591791507895]
将来の画像の予測に世界モデリングを利用するトレーニングパラダイムである textbfDriveVLA-W0 を提案する。
このタスクは、運転環境の基礎となる力学を学ぶためにモデルを補完する密集した自己教師信号を生成する。
NAVSIM v1/v2ベンチマークと680倍の社内データセットの実験は、DriveVLA-W0がBEVとVLAのベースラインを大きく上回っていることを示している。
論文 参考訳(メタデータ) (2025-10-14T17:59:47Z) - VLA-R1: Enhancing Reasoning in Vision-Language-Action Models [35.264042764326895]
VLA(Vision-Language-Action)モデルは、知覚、言語理解、行動生成を統一することを目的としている。
現在のVLAモデルは、しばしば明示的なステップバイステップ推論を欠いている。
本稿では,検証リワードからの強化学習を統合した推論強化VLAであるVLA-R1を提案する。
論文 参考訳(メタデータ) (2025-10-02T02:54:03Z) - Discrete Diffusion VLA: Bringing Discrete Diffusion to Action Decoding in Vision-Language-Action Policies [62.653984010274485]
VLA(Vision-Language-Action)モデルは、画像や命令をロボットアクションにマッピングするために、大きな視覚言語バックボーンを適応させる。
prevailingAsは、固定された左から右への順序で自動回帰的にアクションを生成するか、バックボーンの外側で分離または拡散ヘッドをアタッチする。
本稿では離散拡散を伴う離散化作用チャンクをモデル化する統一変換器ポリシである離散拡散VLAを提案する。
論文 参考訳(メタデータ) (2025-08-27T17:39:11Z) - VLA-RL: Towards Masterful and General Robotic Manipulation with Scalable Reinforcement Learning [14.099306230721245]
VLA-RLは、オンライン収集データをテスト時に改善する探索ベースのフレームワークである。
自動抽出タスクセグメントにアノテートされた擬似報酬ラベルに基づいてトレーニングされたロボットプロセス報酬モデルとして、事前学習された視覚言語モデルを微調整する。
VLA-RLにより、OpenVLA-7BはLIBEROの40の挑戦的なロボット操作タスクにおいて、最強の微調整ベースラインを4.5%超えることができる。
論文 参考訳(メタデータ) (2025-05-24T14:42:51Z) - CoT-VLA: Visual Chain-of-Thought Reasoning for Vision-Language-Action Models [89.44024245194315]
視覚言語行動モデル(VLA)に明示的な視覚連鎖(CoT)推論を組み込む手法を提案する。
視覚およびアクショントークンの理解と生成が可能な最先端の7B VLAであるCoT-VLAを紹介する。
実験の結果,CoT-VLAは実世界の操作タスクでは17%,シミュレーションベンチマークでは6%,最先端のVLAモデルでは6%,高い性能を示した。
論文 参考訳(メタデータ) (2025-03-27T22:23:04Z) - Refined Policy Distillation: From VLA Generalists to RL Experts [18.186499704928092]
本稿では,新しい強化学習型政策精錬法であるRefined Policy Distillation (RPD)を紹介する。
RPDはVision-Language-Action Models (VLA) を、コンパクトで高性能な専門家ポリシーに精錬・精錬する。
実験結果から,RL の学生は VLA の教師に対して,高密度かつ疎度な報酬設定で優れた専門家ポリシーを学習することができることがわかった。
論文 参考訳(メタデータ) (2025-03-06T12:52:11Z) - OpenVLA: An Open-Source Vision-Language-Action Model [131.74098076670103]
我々は、970kの現実世界のロボットデモの多様なコレクションに基づいて訓練されたオープンソースのVLAであるOpenVLAを紹介した。
OpenVLAは汎用的な操作の強力な結果を示し、RT-2-X (55B) のようなクローズドモデルよりも16.5%高い絶対的なタスク成功率を示した。
モデルチェックポイント、微調整ノートブック、そしてOpen X-Embodimentデータセット上で大規模にVLAをトレーニングするためのビルトインサポートを備えたPyTorchをリリースしています。
論文 参考訳(メタデータ) (2024-06-13T15:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。