論文の概要: RecipeMasterLLM: Revisiting RoboEarth in the Era of Large Language Models
- arxiv url: http://arxiv.org/abs/2512.17309v1
- Date: Fri, 19 Dec 2025 07:47:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.420437
- Title: RecipeMasterLLM: Revisiting RoboEarth in the Era of Large Language Models
- Title(参考訳): RecipeMasterLLM:大規模言語モデルの時代におけるRoboEarthの再考
- Authors: Asil Kaan Bozcuoglu, Ziyuan Liu,
- Abstract要約: 本稿では,ユーザのプロンプトに応じて,標準化された知識グラフに基づく行動を生成する高レベルプランナを提案する。
このアーキテクチャは、RoboEarth標準化知識グラフと整合したアクション記述を理解し、生成するように特別に訓練されている。
Retrieval-Augmented Generationフェーズでは、環境知識がLLMに供給され、コンテキスト理解が向上し、生成されたアクション記述の精度が向上する。
- 参考スコア(独自算出の注目度): 4.385262331552242
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: RoboEarth was a pioneering initiative in cloud robotics, establishing a foundational framework for robots to share and exchange knowledge about actions, objects, and environments through a standardized knowledge graph. Initially, this knowledge was predominantly hand-crafted by engineers using RDF triples within OWL Ontologies, with updates, such as changes in an object's pose, being asserted by the robot's control and perception routines. However, with the advent and rapid development of Large Language Models (LLMs), we believe that the process of knowledge acquisition can be significantly automated. To this end, we propose RecipeMasterLLM, a high-level planner, that generates OWL action ontologies based on a standardized knowledge graph in response to user prompts. This architecture leverages a fine-tuned LLM specifically trained to understand and produce action descriptions consistent with the RoboEarth standardized knowledge graph. Moreover, during the Retrieval-Augmented Generation (RAG) phase, environmental knowledge is supplied to the LLM to enhance its contextual understanding and improve the accuracy of the generated action descriptions.
- Abstract(参考訳): RoboEarthはクラウドロボティクスの先駆的な取り組みであり、標準化された知識グラフを通じてロボットが行動、オブジェクト、環境に関する知識を共有し交換するための基盤となる枠組みを確立した。
当初、この知識は主にOWLオントロジー内でRDFトリプルを使用するエンジニアによって手作りされ、ロボットの制御と知覚ルーチンによって主張されるオブジェクトのポーズの変化などの更新が行われた。
しかし,Large Language Models (LLMs) の出現と急速な発展により,知識獲得のプロセスは大幅に自動化できると考えている。
この目的のために,ユーザプロンプトに応じて標準化された知識グラフに基づいてOWLアクションオントロジーを生成する高レベルプランナであるRecipeMasterLLMを提案する。
このアーキテクチャは、RoboEarth標準化知識グラフと整合したアクション記述を理解し、生成するように特別に訓練された微調整LDMを活用する。
さらに、検索・拡張生成(RAG)フェーズにおいて、環境知識をLLMに供給し、その文脈的理解を高め、生成された行動記述の精度を向上させる。
関連論文リスト
- OntoRAG: Enhancing Question-Answering through Automated Ontology Derivation from Unstructured Knowledge Bases [0.0]
本稿では,非構造化知識ベースから導出する自動パイプラインであるOntoRAGを紹介する。
OntoRAGは、Webスクレイピング、PDF解析、ハイブリッドチャンキング、情報抽出、知識グラフ構築、オントロジー生成など、高度な技術を統合している。
論文 参考訳(メタデータ) (2025-05-31T18:33:39Z) - RoBridge: A Hierarchical Architecture Bridging Cognition and Execution for General Robotic Manipulation [90.81956345363355]
RoBridgeは、一般的なロボット操作のための階層的なインテリジェントアーキテクチャである。
大規模事前学習型視覚言語モデル(VLM)に基づくハイレベル認知プランナー(HCP)で構成されている。
強化学習の手続き的スキルを解き放ち、認知と実行のギャップを効果的に埋める。
論文 参考訳(メタデータ) (2025-05-03T06:17:18Z) - A Temporal Planning Framework for Multi-Agent Systems via LLM-Aided Knowledge Base Management [5.548477348501636]
本稿では,大規模言語モデル(LLM)とPrologベースの知識管理とマルチロボットタスクの計画を統合したPLANTORという新しいフレームワークを提案する。
その結果,LLMは人間からのフィードバックの少ない正確な知識ベースを生成でき,Prologは形式的正当性と説明可能性を保証することがわかった。
このアプローチは、柔軟でスケーラブルで人間に理解可能な計画を必要とする高度なロボティクスタスクのためのLLM統合の可能性を強調している。
論文 参考訳(メタデータ) (2025-02-26T13:51:28Z) - One to rule them all: natural language to bind communication, perception and action [0.9302364070735682]
本稿では,Large Language Models (LLMs) によるコミュニケーション,知覚,計画を統合したロボット行動計画のための高度なアーキテクチャを提案する。
Planner Moduleはシステムの中核であり、修正されたReActフレームワークに組み込み、ユーザーコマンドの解釈と実行にLLMが使用される。
修正されたReActフレームワークは、リアルタイムな環境認識と身体行動の結果を提供することにより、実行スペースをさらに強化する。
論文 参考訳(メタデータ) (2024-11-22T16:05:54Z) - Embodied-RAG: General Non-parametric Embodied Memory for Retrieval and Generation [69.01029651113386]
Embodied-RAGは、非パラメトリックメモリシステムによるエンボディエージェントのモデルを強化するフレームワークである。
コアとなるEmbodied-RAGのメモリはセマンティックフォレストとして構成され、言語記述を様々なレベルで詳細に保存する。
Embodied-RAGがRAGをロボット領域に効果的にブリッジし、250以上の説明とナビゲーションクエリをうまく処理できることを実証する。
論文 参考訳(メタデータ) (2024-09-26T21:44:11Z) - MOKA: Open-World Robotic Manipulation through Mark-Based Visual Prompting [97.52388851329667]
我々は,自由形式の言語命令で指定されたロボット操作タスクを解決するために,マーキングオープンワールドキーポイントアフォード(Moka)を導入する。
我々のアプローチの中心は、VLMの観測画像と物理世界におけるロボットの行動に関する予測を橋渡しする、コンパクトな点ベースの可測性表現である。
ツールの使用,変形可能な身体操作,オブジェクト再構成など,さまざまなテーブルトップ操作タスクにおけるMokaの性能評価と解析を行った。
論文 参考訳(メタデータ) (2024-03-05T18:08:45Z) - Verifiably Following Complex Robot Instructions with Foundation Models [16.564788361518197]
動作計画のための言語指導基盤(LIMP)は、ロボットが事前に構築されたセマンティックマップを使わずに、現実の環境で複雑なオープンエンドの指示に従うことができるアプローチである。
LIMPは、インストラクターの意図したモチベーションとロボットのアライメントを明らかにする象徴的な指示表現を構築する。
5つの実環境における150の命令に対してLIMPを大規模に評価し、その汎用性とデプロイの容易さを示す。
論文 参考訳(メタデータ) (2024-02-18T08:05:54Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - Knowledge Acquisition and Completion for Long-Term Human-Robot
Interactions using Knowledge Graph Embedding [0.0]
本研究では,長期にわたる継続的な学習において,ユーザや環境からデータを収集するアーキテクチャを提案する。
我々は,ロボットの内部表現を段階的に拡張することを目的として,取得した情報を一般化するための知識グラフ埋め込み技術を採用した。
本研究では,学習主体のロボットの能力と,未知の文脈から得られる関係を計測することにより,連続学習アーキテクチャの性能を評価する。
論文 参考訳(メタデータ) (2023-01-17T12:23:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。