論文の概要: Improving Knowledge Extraction from LLMs for Robotic Task Learning
through Agent Analysis
- arxiv url: http://arxiv.org/abs/2306.06770v2
- Date: Thu, 15 Jun 2023 15:05:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 11:02:18.090549
- Title: Improving Knowledge Extraction from LLMs for Robotic Task Learning
through Agent Analysis
- Title(参考訳): エージェント分析によるロボットタスク学習のためのLLMからの知識抽出の改善
- Authors: James R. Kirk, Robert E. Wray, Peter Lindes
- Abstract要約: 大規模言語モデル(LLMs)は、ロボットタスク学習の知識源として大きな可能性を秘めている。
素早いエンジニアリングを拡張し補完する認知エージェントアプローチについて述べる。
ロボットがLLMから幅広い応答を抽出し,評価することにより,一発学習において75%以上のタスク完了を達成できることを示す。
- 参考スコア(独自算出の注目度): 2.384873896423002
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) offer significant promise as a knowledge source
for robotic task learning. Prompt engineering has been shown to be effective
for eliciting knowledge from an LLM but alone is insufficient for acquiring
relevant, situationally grounded knowledge for an embodied robotic agent
learning novel tasks. We describe a cognitive-agent approach that extends and
complements prompt engineering, mitigating its limitations, and thus enabling a
robot to acquire new task knowledge matched to its native language
capabilities, embodiment, environment, and user preferences. The approach is to
increase the response space of LLMs and deploy general strategies, embedded
within the autonomous robot, to evaluate, repair, and select among candidate
responses produced by the LLM. We describe the approach and experiments that
show how a robot, by retrieving and evaluating a breadth of responses from the
LLM, can achieve >75% task completion in one-shot learning without user
oversight. The approach achieves 100% task completion when human oversight
(such as indication of preference) is provided, while greatly reducing how much
human oversight is needed.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ロボットタスク学習の知識源として、大きな約束を提供する。
プロンプトエンジニアリングはllmから知識を引き出すのに有効であることが示されているが、新しいタスクを学習する具体化ロボットエージェントにとって、関連する、状況に応じた知識を得るには不十分である。
本稿では,ロボットがネイティブ言語能力,具体化,環境,ユーザの嗜好にマッチする新しいタスク知識を身につけることを可能にする,プロンプトエンジニアリングを拡張・補完する認知エージェントアプローチについて述べる。
アプローチは,LSMの応答空間を拡大し,自律ロボット内に埋め込まれた一般的な戦略を展開し,LSMが生成する候補の応答を評価し,修復し,選択することである。
本稿では,ロボットが,llmからの応答の多さを検索し,評価することで,一発学習で75%以上のタスク完了を達成できることを示すアプローチと実験について述べる。
このアプローチは、人間の監視(好みの表示など)が提供されるときに100%のタスク完了を達成すると同時に、人間の監視がどれだけ必要かを大幅に削減する。
関連論文リスト
- Automating Knowledge Discovery from Scientific Literature via LLMs: A Dual-Agent Approach with Progressive Ontology Prompting [59.97247234955861]
LLM-Duoという,プログレッシブプロンプトアルゴリズムとデュアルエージェントシステムを組み合わせた,大規模言語モデル(LLM)に基づく新しいフレームワークを提案する。
言語治療領域における64,177論文からの2,421件の介入を同定した。
論文 参考訳(メタデータ) (2024-08-20T16:42:23Z) - Visual Grounding for Object-Level Generalization in Reinforcement Learning [35.39214541324909]
自然言語命令に従うエージェントにとって、一般化は重要な課題である。
視覚言語モデル(VLM)を用いて視覚的グラウンド化を行い,その知識を強化学習に伝達する。
我々の本質的な報酬は、挑戦的なスキル学習のパフォーマンスを著しく向上させることを示す。
論文 参考訳(メタデータ) (2024-08-04T06:34:24Z) - WESE: Weak Exploration to Strong Exploitation for LLM Agents [95.6720931773781]
本稿では,オープンワールド対話型タスクの解法において,LLMエージェントの強化を目的としたWeak Exploration to Strong Exploitation (WESE)を提案する。
WESEは、探究と搾取のプロセスを分離し、費用対効果の弱いエージェントを用いて世界的知識の探索を行う。
次に、獲得した知識を格納し、タスク関連知識を抽出する知識グラフベースの戦略を導入する。
論文 参考訳(メタデータ) (2024-04-11T03:31:54Z) - KnowAgent: Knowledge-Augmented Planning for LLM-Based Agents [54.09074527006576]
大規模言語モデル(LLM)は複雑な推論タスクにおいて大きな可能性を証明していますが、より高度な課題に取り組むには不十分です。
この不適切さは、主に言語エージェントのアクション知識が組み込まれていないことに起因する。
我々は、明示的な行動知識を取り入れることで、LLMの計画能力を高めるために設計された新しいアプローチであるKnowAgentを紹介する。
論文 参考訳(メタデータ) (2024-03-05T16:39:12Z) - Empowering Large Language Model Agents through Action Learning [85.39581419680755]
大規模言語モデル(LLM)エージェントは最近ますます関心を集めているが、試行錯誤から学ぶ能力は限られている。
我々は、経験から新しい行動を学ぶ能力は、LLMエージェントの学習の進歩に欠かせないものであると論じる。
我々はPython関数の形式でアクションを作成し改善するための反復学習戦略を備えたフレームワークLearningActを紹介した。
論文 参考訳(メタデータ) (2024-02-24T13:13:04Z) - Large Language Model as a Policy Teacher for Training Reinforcement Learning Agents [16.24662355253529]
LLM(Large Language Models)は、高レベルの命令を提供することによって、シーケンシャルな意思決定タスクに対処することができる。
LLMは、特にリアルタイムな動的環境において、特定のターゲット問題に対処する専門性を欠いている。
LLMベースの教師エージェントからの指示を用いて、より小規模で専門的なRLエージェントを訓練することで、これらの課題に対処する新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-22T13:15:42Z) - Self-Knowledge Guided Retrieval Augmentation for Large Language Models [59.771098292611846]
大規模言語モデル(LLM)はタスク固有の微調整なしで優れた性能を示す。
検索に基づく手法は、非パラメトリックな世界知識を提供し、質問応答のようなタスクのパフォーマンスを向上させることができる。
SKR(Self-Knowledge guided Retrieval augmentation)は、LLMがこれまで遭遇した質問を参照できるようにする、シンプルで効果的な方法である。
論文 参考訳(メタデータ) (2023-10-08T04:22:33Z) - ExpeL: LLM Agents Are Experiential Learners [60.54312035818746]
実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。
我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。
推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。
論文 参考訳(メタデータ) (2023-08-20T03:03:34Z) - Improving Language Model Prompting in Support of Semi-autonomous Task
Learning [6.021787236982658]
言語モデル(LLM)は、新しいタスク能力を取得するために必要なエージェントの知識の源としてポテンシャルを提供する。
本稿では,新しいタスクを学習するエージェントに対して有用なLLM応答をもたらす手がかりを構築できる新しいエージェント機能への取り組みについて述べる。
論文 参考訳(メタデータ) (2022-09-13T15:36:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。