論文の概要: Agent as Cerebrum, Controller as Cerebellum: Implementing an Embodied
LMM-based Agent on Drones
- arxiv url: http://arxiv.org/abs/2311.15033v1
- Date: Sat, 25 Nov 2023 14:14:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 22:19:27.264205
- Title: Agent as Cerebrum, Controller as Cerebellum: Implementing an Embodied
LMM-based Agent on Drones
- Title(参考訳): セレブラムとしてのエージェント、小脳としてのコントローラ: ドローンに具体化されたlmmベースのエージェントを実装する
- Authors: Haoran Zhao, Fengxing Pan, Huqiuyue Ping and Yaoming Zhou
- Abstract要約: 本稿では,「小脳,小脳,制御器」アーキテクチャをカプセル化した産業用ロボットエンボディエージェントのための新しいパラダイムを提案する。
当社のアプローチでは,産業環境でのドローン技術に適したエージェントフレームワークであるAeroAgent内で,LMM(Large Multimodal Models)のパワーを活用する。
- 参考スコア(独自算出の注目度): 6.366572107127356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we present a novel paradigm for industrial robotic embodied
agents, encapsulating an 'agent as cerebrum, controller as cerebellum'
architecture. Our approach harnesses the power of Large Multimodal Models
(LMMs) within an agent framework known as AeroAgent, tailored for drone
technology in industrial settings. To facilitate seamless integration with
robotic systems, we introduce ROSchain, a bespoke linkage framework connecting
LMM-based agents to the Robot Operating System (ROS). We report findings from
extensive empirical research, including simulated experiments on the Airgen and
real-world case study, particularly in individual search and rescue operations.
The results demonstrate AeroAgent's superior performance in comparison to
existing Deep Reinforcement Learning (DRL)-based agents, highlighting the
advantages of the embodied LMM in complex, real-world scenarios.
- Abstract(参考訳): 本研究では,「小脳,小脳のエージェント,小脳のコントローラ」アーキテクチャをカプセル化した産業用ロボットエンボディエージェントの新しいパラダイムを提案する。
当社のアプローチでは,産業環境でのドローン技術に適したエージェントフレームワークであるAeroAgent内で,LMM(Large Multimodal Models)のパワーを活用する。
ロボットシステムとのシームレスな統合を容易にするため,ロボットオペレーティングシステム(ROS)にLMMベースのエージェントを接続する疎結合フレームワークであるROSchainを導入する。
本研究では,Airgenおよび実世界のケーススタディ,特に個別の捜索救助活動におけるシミュレーション実験を含む広範な実証研究の成果を報告する。
その結果,既存のDeep Reinforcement Learning(DRL)ベースのエージェントと比較して,AeroAgentの優れた性能を示し,複雑な実世界のシナリオにおいて,具体化されたLMMの利点を強調した。
関連論文リスト
- AgentLite: A Lightweight Library for Building and Advancing
Task-Oriented LLM Agent System [91.41155892086252]
LLMエージェントの研究を簡略化する新しいAIエージェントライブラリであるAgentLiteをオープンソースとして公開する。
AgentLiteは、タスクを分解するエージェントの機能を強化するために設計されたタスク指向フレームワークである。
我々は,その利便性と柔軟性を示すために,AgentLiteで開発された実用アプリケーションを紹介した。
論文 参考訳(メタデータ) (2024-02-23T06:25:20Z) - KwaiAgents: Generalized Information-seeking Agent System with Large
Language Models [33.59597020276034]
人間は批判的思考、計画、リフレクション、世界と対話し解釈するための利用可能なツールの活用に優れています。
大規模言語モデル(LLM)の最近の進歩は、マシンが前述の人間のような能力を持っていることも示唆している。
LLMに基づく汎用情報検索システムであるKwaiAgentsを紹介する。
論文 参考訳(メタデータ) (2023-12-08T08:11:11Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Multi-Agent Reinforcement Learning for Microprocessor Design Space
Exploration [71.95914457415624]
マイクロプロセッサアーキテクトは、高性能でエネルギー効率の追求において、ドメイン固有のカスタマイズにますます頼っている。
この問題に対処するために,Multi-Agent RL (MARL) を利用した別の定式化を提案する。
評価の結果,MARLの定式化は単エージェントRLのベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-11-29T17:10:24Z) - Phantom -- A RL-driven multi-agent framework to model complex systems [1.0499611180329804]
Phantomは複雑なマルチエージェントシステムのエージェントベースのモデリングのためのRL駆動のフレームワークである。
MARL互換の方法でABM仕様を簡素化するツールを提供することを目標としている。
これらの特徴,その設計根拠,およびフレームワークを活用した2つの新しい環境について述べる。
論文 参考訳(メタデータ) (2022-10-12T08:37:38Z) - From Intelligent Agents to Trustworthy Human-Centred Multiagent Systems [32.13503855910301]
サウサンプトン大学のエージェント・インタラクション・複雑度研究グループには、マルチエージェントシステム(MAS)の研究の長い実績がある。
我々は、このグループによって達成された重要な成果を強調し、信頼に足る自律システムを開発し、社会的善をサポートすることを目的とした人間中心のAIシステムを展開するための最近の研究とオープンな研究課題について詳述する。
論文 参考訳(メタデータ) (2022-10-05T13:40:38Z) - Modeling Bounded Rationality in Multi-Agent Simulations Using Rationally
Inattentive Reinforcement Learning [85.86440477005523]
我々は、人間不合理性の確立されたモデルであるRational Inattention(RI)モデルを含む、より人間的なRLエージェントについて検討する。
RIRLは、相互情報を用いた認知情報処理のコストをモデル化する。
我々は、RIRLを用いることで、合理的な仮定の下で発見されたものと異なる、新しい平衡挙動の豊富なスペクトルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-18T20:54:00Z) - Distributed Reinforcement Learning for Cooperative Multi-Robot Object
Manipulation [53.262360083572005]
強化学習(RL)を用いた協調型マルチロボットオブジェクト操作タスクの検討
分散近似RL(DA-RL)とゲーム理論RL(GT-RL)の2つの分散マルチエージェントRLアプローチを提案する。
本稿では, DA-RL と GT-RL を多エージェントシステムに適用し, 大規模システムへの拡張が期待される。
論文 参考訳(メタデータ) (2020-03-21T00:43:54Z) - Scalable Multi-Agent Inverse Reinforcement Learning via
Actor-Attention-Critic [54.2180984002807]
マルチエージェント逆逆強化学習 (MA-AIRL) は, 単エージェントAIRLをマルチエージェント問題に適用する最近の手法である。
本稿では,従来の手法よりもサンプル効率が高く,スケーラブルなマルチエージェント逆RLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-24T20:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。