論文の概要: Score the Steps, Not Just the Goal: VLM-Based Subgoal Evaluation for Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2509.19524v1
- Date: Tue, 23 Sep 2025 19:42:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.586996
- Title: Score the Steps, Not Just the Goal: VLM-Based Subgoal Evaluation for Robotic Manipulation
- Title(参考訳): VLMに基づくロボットマニピュレーションのためのサブゴール評価
- Authors: Ramy ElMallah, Krish Chhajer, Chi-Guhn Lee,
- Abstract要約: コストを意識したプラグイン評価フレームワークであるStepEvalの青写真を提案する。
私たちの貢献は、スケーラブルでコミュニティ主導のオープンソースプロジェクトの設計原則を概説することにあります。
- 参考スコア(独自算出の注目度): 6.2511886555343805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robot learning papers typically report a single binary success rate (SR), which obscures where a policy succeeds or fails along a multi-step manipulation task. We argue that subgoal-level reporting should become routine: for each trajectory, a vector of per-subgoal SRs that makes partial competence visible (e.g., grasp vs. pour). We propose a blueprint for StepEval, a cost-aware plug-in evaluation framework that utilizes vision-language models (VLMs) as automated judges of subgoal outcomes from recorded images or videos. Rather than proposing new benchmarks or APIs, our contribution is to outline design principles for a scalable, community-driven open-source project. In StepEval, the primary artifact for policy evaluation is the per-subgoal SR vector; however, other quantities (e.g., latency or cost estimates) are also considered for framework-optimization diagnostics to help the community tune evaluation efficiency and accuracy when ground-truth subgoal success labels are available. We discuss how such a framework can remain model-agnostic, support single- or multi-view inputs, and be lightweight enough to adopt across labs. The intended contribution is a shared direction: a minimal, extensible seed that invites open-source contributions, so that scoring the steps, not just the final goal, becomes a standard and reproducible practice.
- Abstract(参考訳): ロボット学習論文は通常、1つのバイナリ成功率(SR)を報告します。
各トラジェクトリに対して、部分的な能力(例えば、握り対注)を可視化するサブゴールごとのSRのベクトルである。
本稿では,視覚言語モデル(VLM)を映像やビデオのサブゴール結果の自動判定として利用する,コスト対応のプラグイン評価フレームワークであるStepEvalの青写真を提案する。
当社のコントリビューションは、新しいベンチマークやAPIを提案するのではなく、スケーラブルでコミュニティ主導のオープンソースプロジェクトの設計原則を概説することにあります。
StepEvalでは、ポリシー評価の主要な成果物はサブゴールごとのSRベクトルであるが、他の量(例えば、レイテンシーやコスト見積)もフレームワーク最適化診断として考慮されており、地道的なサブゴール成功ラベルが利用可能である場合に、コミュニティが評価の効率と精度を調整するのに役立つ。
このようなフレームワークがモデルに依存しないままで、シングルビューまたはマルチビューのインプットをサポートし、実験室全体に適用できるほど軽量であることについて議論する。
オープンソースコントリビューションを招待する最小限の拡張可能なシードによって、最終目標だけでなく、ステップのスコアが標準で再現可能なプラクティスになります。
関連論文リスト
- HIQL: Offline Goal-Conditioned RL with Latent States as Actions [81.67963770528753]
オフラインデータからゴール条件付きRLの階層的アルゴリズムを提案する。
この階層的な分解によって、推定値関数のノイズに頑健になることを示す。
提案手法は,従来の手法を巧みに操り,高次元画像観察にスケールできるとともに,アクションフリーなデータを容易に利用することができる。
論文 参考訳(メタデータ) (2023-07-22T00:17:36Z) - Learning Rational Subgoals from Demonstrations and Instructions [71.86713748450363]
本稿では,新しい目標を達成するための効率的な長期計画を支援する有用なサブゴール学習フレームワークを提案する。
我々のフレームワークの中核は合理的なサブゴール(RSG)の集合であり、基本的には環境状態上の二項分類器である。
目標記述が与えられた場合、学習したサブゴールと派生した依存関係は、A*やRTといった既成の計画アルゴリズムを促進する。
論文 参考訳(メタデータ) (2023-03-09T18:39:22Z) - Goal Recognition as a Deep Learning Task: the GRNet Approach [0.0]
自動計画において、観察の痕跡からエージェントのゴールを認識することは、多くのアプリケーションにとって重要な課題である。
本稿では,機械学習によって対処される分類課題としてゴール認識を定式化する手法について検討する。
GRNetと呼ばれる私たちのアプローチは、主に、特定のドメインでそれを解決する方法を学ぶことによって、ゴール認識をより正確かつ高速にすることを目的としています。
論文 参考訳(メタデータ) (2022-10-05T16:42:48Z) - Goal-Conditioned Q-Learning as Knowledge Distillation [136.79415677706612]
目標条件設定における非政治強化学習と知識蒸留との関連について検討する。
これは,目標の空間が高次元である場合に,目標条件付き非政治強化学習の性能を向上させることを実証的に示す。
また,複数のスパース目標を同時に達成した場合に,この手法を効果的に学習できることを示す。
論文 参考訳(メタデータ) (2022-08-28T22:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。