論文の概要: LEO-RobotAgent: A General-purpose Robotic Agent for Language-driven Embodied Operator
- arxiv url: http://arxiv.org/abs/2512.10605v1
- Date: Thu, 11 Dec 2025 12:58:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.285375
- Title: LEO-RobotAgent: A General-purpose Robotic Agent for Language-driven Embodied Operator
- Title(参考訳): LEO-RobotAgent : 言語駆動型操作者のための汎用ロボットエージェント
- Authors: Lihuang Chen, Xiangyu Luo, Jun Meng,
- Abstract要約: ロボットのための汎用言語駆動型インテリジェントエージェントフレームワークLEO-RobotAgentを提案する。
このフレームワークは強力な一般化、堅牢性、効率性を備えている。
実験では、このフレームワークが主流のロボットプラットフォームに容易に適応できることが確認されている。
- 参考スコア(独自算出の注目度): 1.5566524830295307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose LEO-RobotAgent, a general-purpose language-driven intelligent agent framework for robots. Under this framework, LLMs can operate different types of robots to complete unpredictable complex tasks across various scenarios. This framework features strong generalization, robustness, and efficiency. The application-level system built around it can fully enhance bidirectional human-robot intent understanding and lower the threshold for human-robot interaction. Regarding robot task planning, the vast majority of existing studies focus on the application of large models in single-task scenarios and for single robot types. These algorithms often have complex structures and lack generalizability. Thus, the proposed LEO-RobotAgent framework is designed with a streamlined structure as much as possible, enabling large models to independently think, plan, and act within this clear framework. We provide a modular and easily registrable toolset, allowing large models to flexibly call various tools to meet different requirements. Meanwhile, the framework incorporates a human-robot interaction mechanism, enabling the algorithm to collaborate with humans like a partner. Experiments have verified that this framework can be easily adapted to mainstream robot platforms including unmanned aerial vehicles (UAVs), robotic arms, and wheeled robot, and efficiently execute a variety of carefully designed tasks with different complexity levels. Our code is available at https://github.com/LegendLeoChen/LEO-RobotAgent.
- Abstract(参考訳): ロボットのための汎用言語駆動型インテリジェントエージェントフレームワークLEO-RobotAgentを提案する。
このフレームワークでは、LLMは様々なシナリオで予測不可能な複雑なタスクを完了するために、さまざまなタイプのロボットを動作させることができる。
このフレームワークは強力な一般化、堅牢性、効率性を備えている。
アプリケーションレベルのシステムは、双方向の人間とロボットの意図理解を完全に強化し、人間とロボットの相互作用のしきい値を下げる。
ロボットタスク計画に関しては、既存の研究の大部分は、単一タスクシナリオや単一ロボットタイプにおける大規模モデルの応用に重点を置いている。
これらのアルゴリズムはしばしば複雑な構造を持ち、一般化性に欠ける。
このように、提案されたLEO-RobotAgentフレームワークは、可能な限り合理化された構造で設計されており、大きなモデルがこの明確なフレームワーク内で独立して考え、計画し、行動することができる。
私たちはモジュール式で簡単に登録可能なツールセットを提供しており、大きなモデルは様々なツールを柔軟に呼び出して異なる要件を満たすことができます。
一方、このフレームワークには人間とロボットのインタラクション機構が組み込まれており、アルゴリズムはパートナーのように人間と協調することができる。
実験により、このフレームワークは無人航空機(UAV)、ロボットアーム、車輪付きロボットなど、主要なロボットプラットフォームに容易に適用でき、複雑さのレベルが異なる様々な慎重に設計されたタスクを効率的に実行できることが確認された。
私たちのコードはhttps://github.com/LegendLeoChen/LEO-RobotAgent.comで公開されています。
関連論文リスト
- RACAS: Controlling Diverse Robots With a Single Agentic System [26.695876900159373]
RACAS(Robot-Agnostic Control via Agentic Systems)は、3つのモジュールが自然言語でのみ通信してクローズドループロボット制御を実現する協調型エージェントアーキテクチャである。
RACASは、ロボットの自然言語記述、利用可能なアクションの定義、タスク仕様のみを必要とする。
我々は、車輪付き地上ロボット、最近発表された新しい多関節ロボットアーム、水中車両を用いて、複数のタスクにおけるRACASを評価した。RACASは、これらの過激な異なるプラットフォームをまたいだ全てのタスクを一貫して解決し、その可能性を実証している。
論文 参考訳(メタデータ) (2026-03-05T19:25:01Z) - RoBridge: A Hierarchical Architecture Bridging Cognition and Execution for General Robotic Manipulation [90.81956345363355]
RoBridgeは、一般的なロボット操作のための階層的なインテリジェントアーキテクチャである。
大規模事前学習型視覚言語モデル(VLM)に基づくハイレベル認知プランナー(HCP)で構成されている。
強化学習の手続き的スキルを解き放ち、認知と実行のギャップを効果的に埋める。
論文 参考訳(メタデータ) (2025-05-03T06:17:18Z) - $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - EMOS: Embodiment-aware Heterogeneous Multi-robot Operating System with LLM Agents [33.77674812074215]
異種ロボット間の効果的な協調を実現するための新しいマルチエージェントフレームワークを提案する。
エージェントがロボットURDFファイルを理解し、ロボットキネマティクスツールを呼び出し、その物理能力の記述を生成する。
Habitat-MASベンチマークは、マルチエージェントフレームワークがエンボディメント認識推論を必要とするタスクをどのように処理するかを評価するように設計されている。
論文 参考訳(メタデータ) (2024-10-30T03:20:01Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。