論文の概要: Environment-Aware Adaptive Pruning with Interleaved Inference Orchestration for Vision-Language-Action Models
- arxiv url: http://arxiv.org/abs/2602.00780v1
- Date: Sat, 31 Jan 2026 15:44:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.396181
- Title: Environment-Aware Adaptive Pruning with Interleaved Inference Orchestration for Vision-Language-Action Models
- Title(参考訳): ビジョン・ランゲージ・アクションモデルのためのインターリーブ推論オーケストレーションを用いた環境適応型プルーニング
- Authors: Yuting Huang, Leilei Ding, Zhipeng Tang, Zenghuan Zhu, Jiajun Deng, Xinrui Lin, Shuo Liu, Haojie Ren, Jianmin Ji, Yanyong Zhang,
- Abstract要約: 本研究では,ビジョン・ランゲージ・アクション(VLA)ロボットのためのトレーニングフリーでプラグアンドプレイ適応型プルーニングフレームワークであるEcoVLAを提案する。
EcoVLAには、EAP(Environment-Aware Adaptive Pruning)とInterleaved Inference Orchestration(I2O$)の2つのコンポーネントがある。
EAPは、物理的環境の時間的一貫性を組み込んだ軽量な適応チャネルプルーニング手法であり、空間パターンを更新する。
I2O$は、VLA推論に固有のFLOPバブルを活用して、プルーニングメソッドを並列にスケジュールし、レイテンシに無視できない影響を確実にする。
- 参考スコア(独自算出の注目度): 37.528034793637936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Vision-Language-Action (VLA) models hold promise in embodied intelligence, their large parameter counts lead to substantial inference latency that hinders real-time manipulation, motivating parameter sparsification. However, as the environment evolves during VLA execution, the optimal sparsity patterns change accordingly. Static pruning lacks the adaptability required for environment dynamics, whereas fixed-interval dynamic layer pruning suffers from coarse granularity and high retraining overheads. To bridge this gap, we propose EcoVLA, a training-free, plug-and-play adaptive pruning framework that supports orthogonal combination with existing VLA acceleration methods. EcoVLA comprises two components: Environment-aware Adaptive Pruning (EAP) and Interleaved Inference Orchestration ($I^2O$). EAP is a lightweight adaptive channel pruning method that incorporates the temporal consistency of the physical environment to update sparsity patterns. $I^2O$ leverages the FLOPs bubbles inherent in VLA inference to schedule the pruning method in parallel, ensuring negligible impact on latency. Evaluated on diverse VLA models and benchmarks, EcoVLA delivers state-of-the-art performance, achieving up to 1.60$\times$ speedup with only a 0.4% drop in success rate, and further reaches 2.18$\times$ speedup with only a 0.5% degradation when combined with token pruning. We further validate the effectiveness of EcoVLA on real-world robots.
- Abstract(参考訳): VLA(Vision-Language-Action)モデルは、インテリジェンスを具現化する上で有望であるが、その大きなパラメータカウントは、リアルタイム操作を妨げ、パラメータスペーシングを動機付ける、かなりの推論遅延を引き起こす。
しかしながら、VLA実行中に環境が進化するにつれて、最適な空間パターンが変化する。
静的プルーニングは環境力学の適応性に欠けるが、固定間隔動的層プルーニングは粗い粒度と高いリトレーニングオーバーヘッドに悩まされる。
このギャップを埋めるために,既存のVLAアクセラレーション手法と直交的な組み合わせをサポートするトレーニングフリーのプラグアンドプレイ適応型プルーニングフレームワークであるEcoVLAを提案する。
EcoVLAは、EAP(Environment-aware Adaptive Pruning)とInterleaved Inference Orchestration(I^2O$)の2つのコンポーネントで構成される。
EAPは、物理的環境の時間的一貫性を組み込んだ軽量な適応チャネルプルーニング手法であり、空間パターンを更新する。
I^2O$は、VLA推論に固有のFLOPバブルを活用して、プルーニングメソッドを並列にスケジュールし、レイテンシに無視できる影響を確実にする。
様々なVLAモデルとベンチマークに基づいて評価され、EcoVLAは1.60$\times$スピードアップを成功率0.4%で達成し、さらにトークンプルーニングと組み合わせるとわずか0.5%の劣化で2.18$\times$スピードアップに達する。
実世界のロボットに対するEcoVLAの有効性をさらに検証する。
関連論文リスト
- TS-DP: Reinforcement Speculative Decoding For Temporal Adaptive Diffusion Policy Acceleration [64.32072516882947]
拡散ポリシーは、具体的制御が優れているが、高い推論遅延と計算コストに悩まされている。
時間認識強化に基づく投機的拡散政策(TS-DP)を提案する。
TS-DPは94%以上のドラフトで最大4.17倍高速な推論を実現し、推論周波数は25Hzに達した。
論文 参考訳(メタデータ) (2025-12-13T07:53:14Z) - SemanticVLA: Semantic-Aligned Sparsification and Enhancement for Efficient Robotic Manipulation [65.6201974979119]
本稿では,効率的なロボットマニピュレーションのためのセマンティックスペーシフィケーション・エンハンスメントを実現する新しいVLAフレームワークSemanticVLAを提案する。
SemanticVLAはOpenVLA on LIBEROベンチマークを21.1%上回り、トレーニングコストと推論遅延を3.0倍と2.7倍に削減した。
論文 参考訳(メタデータ) (2025-11-13T17:24:37Z) - EcoSpa: Efficient Transformer Training with Coupled Sparsity [79.5008521101473]
トランスフォーマーは現代のAIのバックボーンとなっているが、その高い計算要求は重要なシステム課題を引き起こしている。
EcoSpaは、結合した重み行列対を共同で評価し、スパース化する効率的な構造的スパース訓練法である。
論文 参考訳(メタデータ) (2025-11-09T11:23:43Z) - SADA: Stability-guided Adaptive Diffusion Acceleration [24.250318487331228]
拡散モデルは生成的タスクにおいて顕著な成功を収めたが、高い計算コストに悩まされている。
既存のトレーニングフリー加速戦略は、ステップごとの計算コストを削減しつつ、サンプリング時間を効果的に削減し、信頼性を低下させる。
本稿では, ODE に基づく生成モデルのサンプリングを高速化する新しいパラダイムとして, 安定誘導型適応拡散加速法 (SADA) を提案する。
論文 参考訳(メタデータ) (2025-07-23T02:15:45Z) - SP-VLA: A Joint Model Scheduling and Token Pruning Approach for VLA Model Acceleration [70.72227437717467]
VLA(Vision-Language-Action)モデルは、その強力な制御能力に注目が集まっている。
計算コストが高く、実行頻度も低いため、ロボット操作や自律ナビゲーションといったリアルタイムタスクには適さない。
本稿では,共同スケジューリングモデルとプルーニングトークンにより,VLAモデルを高速化する統一フレームワークSP-VLAを提案する。
論文 参考訳(メタデータ) (2025-06-15T05:04:17Z) - LiteVLM: A Low-Latency Vision-Language Model Inference Pipeline for Resource-Constrained Environments [4.2226391610434275]
本稿では,組込みデバイスへのデプロイに最適化された効率的なビジョン・ランゲージ・モデル(VLM)パイプラインを提案する。
パイプラインは、パッチ選択を併用して、無関係なカメラビューをフィルタリングすることにより、計算オーバーヘッドを大幅に削減する。
論文 参考訳(メタデータ) (2025-06-09T04:30:25Z) - Adaptive Deadline and Batch Layered Synchronized Federated Learning [66.93447103966439]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散エッジデバイス間で協調的なモデルトレーニングを可能にする。
我々は,レイヤワイドアグリゲーションのために,ラウンド単位の期限とユーザ固有のバッチサイズを共同で最適化する新しいフレームワークADEL-FLを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:59:18Z) - One-shot, Offline and Production-Scalable PID Optimisation with Deep
Reinforcement Learning [0.0]
PID制御は、97%以上の自動化産業プロセスの基盤となっている。
汎用システム特性の関係を学習する深層強化学習に基づく手法を提案する。
この方法は、最も困難な目標切換速度に該当するアクチュエータの数を5倍に改善する。
論文 参考訳(メタデータ) (2022-10-25T10:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。