論文の概要: RESample: A Robust Data Augmentation Framework via Exploratory Sampling for Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2510.17640v1
- Date: Mon, 20 Oct 2025 15:21:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.498451
- Title: RESample: A Robust Data Augmentation Framework via Exploratory Sampling for Robotic Manipulation
- Title(参考訳): RESample:ロボットマニピュレーションのための探索サンプリングによるロバストデータ拡張フレームワーク
- Authors: Yuquan Xue, Guanxing Lu, Zhenyu Wu, Chuanrui Zhang, Bofang Jia, Zhengyi Gu, Yansong Tang, Ziwei Wang,
- Abstract要約: VLA(Vision-Language-Action Model)は、模倣学習を通じて複雑なロボット操作タスクにおいて顕著な性能を示す。
探索サンプリングにより,RESample という自動 OOD データ拡張フレームワークを提案する。
LIBEROベンチマークと実世界のロボット操作タスクについて広範な実験を行い、resampleがVLAモデルの安定性と一般化能力を一貫して改善することを実証した。
- 参考スコア(独自算出の注目度): 35.01431111972725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-Language-Action models (VLAs) have demonstrated remarkable performance on complex robotic manipulation tasks through imitation learning. However, existing imitation learning datasets contain only successful trajectories and lack failure or recovery data, especially for out-of-distribution (OOD) states where the robot deviates from the main policy due to minor perturbations or errors, leading VLA models to struggle with states deviating from the training distribution. To this end, we propose an automated OOD data augmentation framework named RESample through exploratory sampling. Specifically, we first leverage offline reinforcement learning to obtain an action-value network that accurately identifies sub-optimal actions under the current manipulation policy. We further sample potential OOD states from trajectories via rollout, and design an exploratory sampling mechanism that adaptively incorporates these action proxies into the training dataset to ensure efficiency. Subsequently, our framework explicitly encourages the VLAs to recover from OOD states and enhances their robustness against distributional shifts. We conduct extensive experiments on the LIBERO benchmark as well as real-world robotic manipulation tasks, demonstrating that RESample consistently improves the stability and generalization ability of VLA models.
- Abstract(参考訳): VLA(Vision-Language-Action Model)は、模倣学習を通じて複雑なロボット操作タスクにおいて顕著な性能を示す。
しかし、既存の模倣学習データセットには、成功した軌道のみが含まれており、特にアウト・オブ・ディストリビューション(OOD)状態においては、ロボットが小さな摂動やエラーのためにメインポリシーから逸脱し、VLAモデルはトレーニング分布から逸脱した状態と闘う。
この目的のために,探索サンプリングにより,RESample という自動 OOD データ拡張フレームワークを提案する。
具体的には、まずオフライン強化学習を活用して、現在の操作ポリシーの下での準最適動作を正確に識別するアクション値ネットワークを得る。
さらに、ロールアウトを介して軌道から潜在的OOD状態のサンプリングを行い、これらのアクションプロキシをトレーニングデータセットに適応的に組み込んで効率を確保する探索サンプリング機構を設計する。
その後、我々の枠組みは、VLAがOOD状態から回復することを明示的に奨励し、分散シフトに対するロバスト性を高める。
LIBEROベンチマークと実世界のロボット操作タスクについて広範な実験を行い、resampleがVLAモデルの安定性と一般化能力を一貫して改善することを実証した。
関連論文リスト
- SCOPED: Score-Curvature Out-of-distribution Proximity Evaluator for Diffusion [5.008779702997125]
アウト・オブ・ディストリビューション(OOD)検出は、視覚、ロボット工学、強化学習などにおける機械学習システムの信頼性の高い展開に不可欠である。
SCOPED(Score-Curvature Out-of-distribution Proximity Evaluator for Diffusion)を紹介する。
SCOPEDは、多様なデータセットでトレーニングされた単一の拡散モデルから計算され、モデルのスコア関数のジャコビアントレースと2乗ノルムを単一のテスト統計量に結合する。
4つのビジョンベンチマークでは、SCOPEDは計算コストの低いにもかかわらず、競合または最先端の精度リコールスコアを達成している。
論文 参考訳(メタデータ) (2025-10-01T20:54:49Z) - Align-Then-stEer: Adapting the Vision-Language Action Models through Unified Latent Guidance [63.33213516925946]
textbfAlign-Then-stEer(textttATE)は,新しいデータ効率,プラグアンドプレイ適応フレームワークである。
我々の研究は、新しいロボットプラットフォームやタスクにVLAモデルをデプロイする実用性を大幅に向上させる、汎用的で軽量なソリューションを提供する。
論文 参考訳(メタデータ) (2025-09-02T07:51:59Z) - ARES: Auxiliary Range Expansion for Outlier Synthesis [1.7306463705863946]
本研究では,OOD検出のための新しい手法であるAuxiliary Range Expansion for Outlier Synthesisを提案する。
さまざまなステージがARESで構成され、最終的に価値のあるOODのような仮想インスタンスを生成する。
次に、エネルギースコアに基づく判別器を訓練し、分配内データと外部データとを効果的に分離する。
論文 参考訳(メタデータ) (2025-01-11T05:44:33Z) - TraceVLA: Visual Trace Prompting Enhances Spatial-Temporal Awareness for Generalist Robotic Policies [95.30717188630432]
VLAモデルの行動予測のための時空間認識を容易にするために,視覚的トレースプロンプトを導入する。
我々は,これまでに収集した150Kロボット操作トラジェクトリのデータセットに基づいてOpenVLAを微調整し,新しいTraceVLAモデルを開発した。
4B Phi-3-Vision に基づくコンパクトな VLA モデルを提案する。
論文 参考訳(メタデータ) (2024-12-13T18:40:51Z) - Enhancing OOD Detection Using Latent Diffusion [3.4899193297791054]
Out-of-Distribution(OOD)検出は、現実のシナリオにおけるマシンラーニングモデルの信頼性の高いデプロイに不可欠である。
近年の研究では、安定拡散のような生成モデルを用いて、画素空間の外部値データを合成する方法が検討されている。
我々は,潜伏空間内でOOD学習データを生成する新しいフレームワークであるOutlier-Aware Learning (OAL)を提案する。
論文 参考訳(メタデータ) (2024-06-24T11:01:43Z) - Model Reprogramming Outperforms Fine-tuning on Out-of-distribution Data in Text-Image Encoders [56.47577824219207]
本稿では,侵入的微調整技術に関連する隠れたコストを明らかにする。
ファインチューニングのための新しいモデル再プログラミング手法を導入し、それをリプログラマと呼ぶ。
我々の経験的証拠は、Re Programmerは侵入力が少なく、より優れた下流モデルが得られることを示している。
論文 参考訳(メタデータ) (2024-03-16T04:19:48Z) - RODD: A Self-Supervised Approach for Robust Out-of-Distribution
Detection [12.341250124228859]
本稿では,分散データセットに依存しない簡易かつ効果的なOOD検出手法を提案する。
提案手法は, コンパクトな低次元空間上に埋没するトレーニングサンプルの自己教師型特徴学習に依存する。
自己教師付きコントラスト学習を用いた事前学習モデルでは、潜伏空間における一次元特徴学習のより良いモデルが得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-06T03:05:58Z) - Distributionally Robust Recurrent Decoders with Random Network
Distillation [93.10261573696788]
本稿では,自動回帰言語モデルが推論中にOODコンテキストを無視できるように,ランダムネットワーク蒸留を用いたOOD検出に基づく手法を提案する。
提案手法をGRUアーキテクチャに適用し,複数の言語モデリング(LM)データセットの改善を実証する。
論文 参考訳(メタデータ) (2021-10-25T19:26:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。