論文の概要: SmoothVLA: Aligning Vision-Language-Action Models with Physical Constraints via Intrinsic Smoothness Optimization
- arxiv url: http://arxiv.org/abs/2603.13925v1
- Date: Sat, 14 Mar 2026 12:47:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.489585
- Title: SmoothVLA: Aligning Vision-Language-Action Models with Physical Constraints via Intrinsic Smoothness Optimization
- Title(参考訳): SmoothVLA:内在性滑らか性最適化による身体制約付き視覚・言語・行動モデル
- Authors: Jiashun Li, Xiaoyu Shi, Hong Xie, Mingsheng Shang, Yun Lu,
- Abstract要約: VLA(Vision-Language-Action)モデルは、ロボット操作の強力なパラダイムとして登場した。
SmoothVLAは,タスク性能と動作のスムーズさを相乗的に最適化する,新しい強化学習ファインチューニングフレームワークである。
我々の研究は、本質的な報酬最適化を通じて、VLAモデルと物理世界の制約を整合させるスケーラブルなアプローチを提供する。
- 参考スコア(独自算出の注目度): 11.680753432998358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-Language-Action (VLA) models have emerged as a powerful paradigm for robotic manipulation. However, existing post-training methods face a dilemma between stability and exploration: Supervised Fine-Tuning (SFT) is constrained by demonstration quality and lacks generalization, whereas Reinforcement Learning (RL) improves exploration but often induces erratic, jittery trajectories that violate physical constraints. To bridge this gap, we propose SmoothVLA, a novel reinforcement learning fine-tuning framework that synergistically optimizes task performance and motion smoothness. The technical core is a physics-informed hybrid reward function that integrates binary sparse task rewards with a continuous dense term derived from trajectory jerk. Crucially, this reward is intrinsic, that computing directly from policy rollouts, without requiring extrinsic environment feedback or laborious reward engineering. Leveraging the Group Relative Policy Optimization (GRPO), SmoothVLA establishes trajectory smoothness as an explicit optimization prior, guiding the model toward physically feasible and stable control. Extensive experiments on the LIBERO benchmark demonstrate that SmoothVLA outperforms standard RL by 13.8\% in smoothness and significantly surpasses SFT in generalization across diverse tasks. Our work offers a scalable approach to aligning VLA models with physical-world constraints through intrinsic reward optimization.
- Abstract(参考訳): VLA(Vision-Language-Action)モデルは、ロボット操作の強力なパラダイムとして登場した。
しかし、既存のポストトレーニング手法は、安定性と探索の間にジレンマに直面している: 監視されたファインチューニング(SFT)は、実証品質に制約され、一般化が欠如しているのに対して、強化学習(RL)は探索を改善するが、物理的制約に反する不安定でジッタリーな軌道を誘導することが多い。
このギャップを埋めるために,タスク性能と動作の滑らかさを相乗的に最適化する新しい強化学習微調整フレームワークであるSmoothVLAを提案する。
技術コアは、二項スパースタスク報酬と軌道ジャークから派生した連続的な密度項を統合する物理インフォームドハイブリッド報酬関数である。
重要なことは、この報酬は本質的に、外部の環境フィードバックや精力的な報酬工学を必要とせずに、ポリシーのロールアウトから直接コンピューティングを行うことである。
グループ相対政策最適化(GRPO)を活用して、SmoothVLAは軌道の滑らかさを明示的な最適化として確立し、モデルを物理的に実現可能で安定した制御へと導く。
LIBEROベンチマークの大規模な実験により、SmoothVLAは標準RLを13.8倍の滑らかさで上回り、様々なタスクにおける一般化においてSFTを大幅に上回っていることが示された。
我々の研究は、本質的な報酬最適化を通じて、VLAモデルと物理世界の制約を整合させるスケーラブルなアプローチを提供する。
関連論文リスト
- Stabilizing Policy Optimization via Logits Convexity [59.242732612484474]
モデルロジットに対する教師付き微調整損失の凸性は、安定したトレーニングを可能にする上で重要な役割を担っていることを示す。
そこで本研究では,ロジッツ・コンベックス最適化(Logits Convex Optimization, LCO)を提案する。
論文 参考訳(メタデータ) (2026-03-01T07:40:12Z) - Self-Correcting VLA: Online Action Refinement via Sparse World Imagination [55.982504915794514]
本稿では, 自己補正VLA (SC-VLA) を提案する。
SC-VLAは最先端のパフォーマンスを達成し、最高タスクスループットを16%削減し、最高パフォーマンスのベースラインよりも9%高い成功率を得る。
論文 参考訳(メタデータ) (2026-02-25T06:58:06Z) - OmniVL-Guard: Towards Unified Vision-Language Forgery Detection and Grounding via Balanced RL [63.388513841293616]
既存の偽造検出手法は、現実世界の誤報に多いインターリーブされたテキスト、画像、ビデオを扱うのに失敗する。
このギャップを埋めるため,本論文では,オムニバス・ビジョン言語による偽造検出と接地のための統一フレームワークの開発を目標としている。
我々は、OmniVL-Guardという、オムニバス視覚言語による偽造検出と接地のためのバランスの取れた強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-11T09:41:36Z) - MAESTRO: Meta-learning Adaptive Estimation of Scalarization Trade-offs for Reward Optimization [56.074760766965085]
大規模言語モデル(LLM)の整合性のための効率的なパラダイムとしてグループ相対政策最適化が登場している。
我々は,報酬スカラー化を動的潜在ポリシーとして扱い,モデルの終端隠蔽状態を意味的ボトルネックとして活用するMAESTROを提案する。
本稿では,軽量コンダクタネットワークがメタリワード信号としてグループ相対的優位性を生かしてポリシと共進化する,双方向最適化フレームワークにおけるコンテキスト的帯域幅問題としてこれを定式化する。
論文 参考訳(メタデータ) (2026-01-12T05:02:48Z) - TCPO: Thought-Centric Preference Optimization for Effective Embodied Decision-making [75.29820290660065]
本稿では,効果的な具体的意思決定のための思考中心推論最適化(TCPO)を提案する。
モデルの中間的推論プロセスの整合性を強調し、モデル劣化の問題を緩和する。
ALFWorld環境での実験では、平均成功率は26.67%であり、RL4VLMよりも6%向上している。
論文 参考訳(メタデータ) (2025-09-10T11:16:21Z) - AMFT: Aligning LLM Reasoners by Meta-Learning the Optimal Imitation-Exploration Balance [7.685078284407324]
大規模言語モデル(LLM)は通常、2段階のパイプライン(SFT)と強化学習(RL)による推論タスクのために微調整される。
最近の単段法では、SFTとRLを原理的に統一しようとするが、2つのパラダイムを動的にバランスさせるメカニズムが欠如している。
我々は,SFTの暗黙的,パスレベルの報酬とRLの明示的,結果に基づく報酬との最適バランスを学習する,新しいシングルステージアルゴリズムである textbf Meta Fine-Tuning (AMFT) を紹介する。
論文 参考訳(メタデータ) (2025-08-09T11:40:54Z) - LeTO: Learning Constrained Visuomotor Policy with Differentiable Trajectory Optimization [1.1602089225841634]
本稿では,制約付きビジュモータポリシーの学習手法であるLeTOを紹介した。
シミュレーションおよび実ロボットにおけるLeTOの定量的評価を行った。
論文 参考訳(メタデータ) (2024-01-30T23:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。