論文の概要: ABot-Claw: A Foundation for Persistent, Cooperative, and Self-Evolving Robotic Agents
- arxiv url: http://arxiv.org/abs/2604.10096v1
- Date: Sat, 11 Apr 2026 08:33:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-14 20:13:15.838423
- Title: ABot-Claw: A Foundation for Persistent, Cooperative, and Self-Evolving Robotic Agents
- Title(参考訳): ABot-Claw: 永続的で協力的で自己進化的なロボットエージェントのための財団
- Authors: Dongjie Huo, Haoyun Liu, Guoqing Liu, Dekang Qi, Zhiming Sun, Maoguo Gao, Jianxin He, Yandan Yang, Xinyuan Chang, Feng Xiong, Xing Wei, Zhiheng Ma, Mu Xu,
- Abstract要約: ABot-Clawは、異種ロボットの協調のための能力駆動型スケジューリングを統合するOpenClawの具体的拡張である。
OpenClaw層、共有サービス層、ロボット実施層にまたがる分離アーキテクチャにより、ABot-Clawは現実世界のインタラクションを可能にする。
- 参考スコア(独自算出の注目度): 28.060424125604786
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current embodied intelligent systems still face a substantial gap between high-level reasoning and low-level physical execution in open-world environments. Although Vision-Language-Action (VLA) models provide strong perception and intuitive responses, their open-loop nature limits long-horizon performance. Agents incorporating System 2 cognitive mechanisms improve planning, but usually operate in closed sandboxes with predefined toolkits and limited real-system control. OpenClaw provides a localized runtime with full system privileges, but lacks the embodied control architecture required for long-duration, multi-robot execution. We therefore propose ABot-Claw, an embodied extension of OpenClaw that integrates: 1) a unified embodiment interface with capability-driven scheduling for heterogeneous robot coordination; 2) a visual-centric cross-embodiment multimodal memory for persistent context retention and grounded retrieval; and 3) a critic-based closed-loop feedback mechanism with a generalist reward model for online progress evaluation, local correction, and replanning. With a decoupled architecture spanning the OpenClaw layer, shared service layer, and robot embodiment layer, ABot-Claw enables real-world interaction, closes the loop from natural language intent to physical action, and supports progressively self-evolving robotic agents in open, dynamic environments.
- Abstract(参考訳): 現在のインボディード・インテリジェント・システムは、オープンワールド環境での高レベルの推論と低レベルの物理実行の間に大きなギャップに直面している。
Vision-Language-Action (VLA) モデルは強い知覚と直感的な応答を提供するが、その開ループ特性は長距離性能を制限する。
System 2の認知メカニズムを取り入れたエージェントは計画を改善するが、通常、事前に定義されたツールキットと制限された実システム制御を備えたクローズドサンドボックスで運用される。
OpenClawは、完全なシステム特権を備えたローカライズされたランタイムを提供するが、長期のマルチボット実行に必要なコントロールアーキテクチャを具現化していない。
そこで我々は,OpenClawの具体的拡張であるABot-Clawを提案する。
1) 不均一なロボット協調のための能力駆動型スケジューリングを備えた統一型実施インタフェース
2 持続的文脈保持及び接地検索のための視覚中心型クロス・エボディメント・マルチモーダルメモリ
3)オンライン進捗評価,局所補正,再計画のための一般報酬モデルを用いた批判に基づくクローズドループフィードバック機構について検討した。
OpenClaw層、共有サービス層、ロボットエンボディメント層にまたがる分離アーキテクチャにより、ABot-Clawは現実世界のインタラクションを可能にし、自然言語から物理的なアクションへのループを閉じ、オープンでダイナミックな環境で徐々に自己進化するロボットエージェントをサポートする。
関連論文リスト
- ROSClaw: A Hierarchical Semantic-Physical Framework for Heterogeneous Multi-Agent Collaboration [9.434833852972353]
ROSClawは、統一視覚言語モデル(VLM)コントローラにポリシー学習とタスク実行を統合する異種ロボットのためのエージェントフレームワークである。
自律的なクローズループフレームワークを確立することにより、ROSClawはロボット固有の開発への依存を最小限に抑える。
論文 参考訳(メタデータ) (2026-04-06T13:16:24Z) - RADAR: Closed-Loop Robotic Data Generation via Semantic Planning and Autonomous Causal Environment Reset [48.645870795753105]
ロボットのためのロバスト自動データ取得(RADAR)について紹介する。
RADARは完全に自律的でクローズドループのデータ生成エンジンで、収集サイクルから人間の介入を完全に取り除きます。
シミュレーションでは、複雑な長期タスクにおいて、最大90%の成功率を達成する。
論文 参考訳(メタデータ) (2026-03-12T11:18:52Z) - ULTRA: Unified Multimodal Control for Autonomous Humanoid Whole-Body Loco-Manipulation [55.467742403416175]
本稿では,大規模モーションキャプチャをヒューマノイドに変換する物理駆動型ニューラルネットワークを提案する。
我々は高密度参照とスパースタスク仕様の両方をサポートする統合マルチモーダルコントローラを学習する。
その結果,ULTRAは自我中心の知覚から,自律的,目標条件付き全体ロコ操作に一般化することが示された。
論文 参考訳(メタデータ) (2026-03-03T18:59:29Z) - Bridging Embodiment Gaps: Deploying Vision-Language-Action Models on Soft Robots [5.993870098970107]
VLA(Vision-Language-Action)モデルは、実際のロボットのための言語ガイド付き汎用制御フレームワークとして提案されている。
本稿では,VLAモデルのソフト連続マニピュレータへの展開について述べる。
論文 参考訳(メタデータ) (2025-10-20T10:06:39Z) - RoBridge: A Hierarchical Architecture Bridging Cognition and Execution for General Robotic Manipulation [90.81956345363355]
RoBridgeは、一般的なロボット操作のための階層的なインテリジェントアーキテクチャである。
大規模事前学習型視覚言語モデル(VLM)に基づくハイレベル認知プランナー(HCP)で構成されている。
強化学習の手続き的スキルを解き放ち、認知と実行のギャップを効果的に埋める。
論文 参考訳(メタデータ) (2025-05-03T06:17:18Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。