論文の概要: SpaceTools: Tool-Augmented Spatial Reasoning via Double Interactive RL
- arxiv url: http://arxiv.org/abs/2512.04069v1
- Date: Wed, 03 Dec 2025 18:50:04 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 11:59:03.263401
- Title: SpaceTools: Tool-Augmented Spatial Reasoning via Double Interactive RL
- Title(参考訳): SpaceTools: ダブルインタラクティブRLによるツール拡張空間推論
- Authors: Siyi Chen, Mikaela Angelina Uy, Chan Hee Song, Faisal Ladhak, Adithyavairavan Murali, Qing Qu, Stan Birchfield, Valts Blukis, Jonathan Tremblay,
- Abstract要約: 視覚言語モデル(VLM)は、質的な視覚的理解が強いが、計量的に正確な空間的推論に苦慮している。
本稿では,VLMが複数のツールを協調する2段階の学習フレームワークであるDouble Interactive Reinforcement Learning(DIRL)を紹介する。
我々のモデルであるSpaceToolsは、ツール強化された空間推論能力を持ち、空間理解ベンチマーク上で最先端の性能を達成する。
- 参考スコア(独自算出の注目度): 33.692408134748696
- License:
- Abstract: Vision Language Models (VLMs) demonstrate strong qualitative visual understanding, but struggle with metrically precise spatial reasoning required for embodied applications. The agentic paradigm promises that VLMs can use a wide variety of tools that could augment these capabilities, such as depth estimators, segmentation models, and pose estimators. Yet it remains an open challenge how to realize this vision without solely relying on handcrafted prompting strategies or enforcing fixed, predefined tool pipelines that limit VLMs' ability to discover optimal tool-use patterns. Reinforcement Learning could overcome this gap, but has so far been limited to reasoning with a single visual tool due to the large search space in multi-tool reasoning. We introduce Double Interactive Reinforcement Learning (DIRL), a two-phase training framework where VLMs learn to coordinate multiple tools through interactive exploration and feedback. In the teaching phase, we combine demonstrations from a single tool specialist trained via interactive RL with traces from a frontier model using all tools. In the exploration phase, the model further refines multi-tool coordination through continued RL. Our model, SpaceTools, with tool-augmented spatial reasoning ability, achieves state-of-the-art performance on spatial understanding benchmarks (RoboSpatial-Home, BLINK, BOP-ASK) and demonstrates reliable real-world manipulation using a 7-DOF robot as a tool. DIRL provides substantial improvements over the vanilla SFT (+12% on RoboSpatial) and RL (+16% on RoboSpatial) baselines. Project page: https://spacetools.github.io/.
- Abstract(参考訳): 視覚言語モデル(VLM)は、質的な視覚的理解を強く示すが、エンボディドアプリケーションに必要な空間的推論の計量的精度に乏しい。
エージェントパラダイムは、深度推定器、セグメンテーションモデル、ポーズ推定器など、VLMがこれらの能力を増強する様々なツールを使用できることを約束している。
しかし、このビジョンを実現するには、手作りのプロンプト戦略のみに頼るか、VLMが最適なツール使用パターンを見つける能力を制限した修正済みのツールパイプラインを強制する必要がある。
強化学習は、このギャップを克服する可能性があるが、これまでは、マルチツール推論における大きな検索スペースのため、単一のビジュアルツールによる推論に限られてきた。
2段階の学習フレームワークであるDouble Interactive Reinforcement Learning (DIRL)を導入する。
授業段階では、インタラクティブなRLを用いて訓練された単一のツールスペシャリストによるデモンストレーションと、すべてのツールを使用したフロンティアモデルからのトレースを組み合わせる。
探索段階では、連続RLによるマルチツール調整をさらに洗練する。
ツール拡張型空間推論機能を備えたSpaceToolsは,空間理解ベンチマーク(RoboSpatial-Home, BLINK, BOP-ASK)の最先端性能を実現し, ツールとして7-DOFロボットを用いた信頼性の高い実世界操作を実証する。
DIRLは、バニラSFT(RoboSpatialの+12%)とRL(RoboSpatialの+16%)よりも大幅に改善されている。
プロジェクトページ: https://spacetools.github.io/.com
関連論文リスト
- Scaling Agentic Reinforcement Learning for Tool-Integrated Reasoning in VLMs [76.47326680870783]
VISTA-Gymは視覚言語モデル(VLM)におけるツール統合視覚推論能力のインセンティブ化のためのトレーニング環境である。
VISTA-Gymはビジュアルツールの標準化されたインタフェースで様々な実世界のマルチモーダル推論タスクを統合する。
VISTA-R1-8Bは、11の公開推論集約VQAベンチマークにおいて、同様のサイズで最先端のベースラインを9.51%-18.72%上回ることを示す。
論文 参考訳(メタデータ) (2025-11-24T22:58:26Z) - VerlTool: Towards Holistic Agentic Reinforcement Learning with Tool Use [78.29315418819074]
VerlToolは、体系的な設計原則を通じて制限に対処する統一的でモジュール化されたフレームワークです。
我々のフレームワークはARLTをマルチターントラジェクトリとして定式化し、マルチモード観測トークン(テキスト/画像/ビデオ)を単一ターンRLVRパラダイムを超えて拡張する。
モジュール化されたプラグインアーキテクチャは、軽量Python定義のみを必要とする迅速なツール統合を可能にする。
論文 参考訳(メタデータ) (2025-09-01T01:45:18Z) - OpenThinkIMG: Learning to Think with Images via Visual Tool Reinforcement Learning [57.89304342666846]
OpenThinkIMGは、ツール拡張LVLMのための、最初のオープンソースで包括的なエンドツーエンドフレームワークです。
本稿では,LVLMを学習し,外部視覚ツールを起動するための適応的なポリシーを学ぶための,新しい強化学習フレームワークV-ToolRLを提案する。
V-ToolRLにより、LVLMは最適なツール利用戦略を自律的に発見できる。
論文 参考訳(メタデータ) (2025-05-13T14:35:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。