論文の概要: Improving Knowledge Extraction from LLMs for Task Learning through Agent
Analysis
- arxiv url: http://arxiv.org/abs/2306.06770v3
- Date: Tue, 22 Aug 2023 20:35:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 17:58:50.914019
- Title: Improving Knowledge Extraction from LLMs for Task Learning through Agent
Analysis
- Title(参考訳): エージェント分析によるタスク学習のためのLLMからの知識抽出の改善
- Authors: James R. Kirk, Robert E. Wray, Peter Lindes
- Abstract要約: 大規模言語モデル(LLM)は、タスク学習の知識源として大きな可能性を秘めている。
プロンプト工学は、LLMから知識を引き出すのに有効であることが示されているが、同時に、新しいタスクを具現化したエージェント学習のための、適切な、状況に根ざした知識を得るには不十分である。
本稿では, エージェントがネイティブ言語能力, 実施, 環境, ユーザの好みにマッチした, 新たなタスク知識を習得できるように, 迅速なエンジニアリングを拡張・補完する認知エージェントアプローチについて述べる。
- 参考スコア(独自算出の注目度): 0.8287206589886879
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) offer significant promise as a knowledge source
for task learning. Prompt engineering has been shown to be effective for
eliciting knowledge from an LLM, but alone it is insufficient for acquiring
relevant, situationally grounded knowledge for an embodied agent learning novel
tasks. We describe a cognitive-agent approach that extends and complements
prompt engineering, mitigating its limitations and thus enabling an agent to
acquire new task knowledge matched to its native language capabilities,
embodiment, environment, and user preferences. The approach is to increase the
response space of LLMs and deploy general strategies, embedded within the
autonomous agent, to evaluate, repair, and select among candidate responses
produced by the LLM. We describe the approach and experiments that show how an
agent, by retrieving and evaluating a breadth of responses from the LLM, can
achieve 77-94% task completion in one-shot learning without user oversight. The
approach achieves 100% task completion when human oversight (such as an
indication of preference) is provided. Further, the type of oversight largely
shifts from explicit, natural language instruction to simple
confirmation/discomfirmation of high-quality responses that have been vetted by
the agent before presentation to a user.
- Abstract(参考訳): 大規模言語モデル(LLM)は、タスク学習の知識源として大きな約束を提供する。
即席工学は、llmから知識を引き出すのに有効であることが示されているが、単独では、新しいタスクを学習する具体化エージェントにとって、関連する、状況に応じた知識を得るには不十分である。
本稿では,プロンプトエンジニアリングを拡張し,その限界を緩和し,エージェントがネイティブ言語能力,具体化,環境,ユーザの好みに合った新しいタスク知識を得ることを可能にする認知エージェントアプローチについて述べる。
アプローチは、LSMの応答空間を拡大し、自律エージェントに埋め込まれた一般的な戦略を展開し、LSMが生成する候補の応答を評価し、修復し、選択することである。
本稿では, LLM からの回答を幅広く検索し, 評価することにより, ユーザによる監視なしに, 77~94% のタスク完了を達成できることを示すアプローチと実験について述べる。
このアプローチは、人間の監視(好みの表示など)が提供されるとき、100%のタスク完了を達成する。
さらに、監視のタイプは、明示的な自然言語命令から、ユーザに提示する前にエージェントが検証した高品質な応答の単純な確認/確認へと大きく変わる。
関連論文リスト
- Automating Knowledge Discovery from Scientific Literature via LLMs: A Dual-Agent Approach with Progressive Ontology Prompting [59.97247234955861]
LLM-Duoという,プログレッシブプロンプトアルゴリズムとデュアルエージェントシステムを組み合わせた,大規模言語モデル(LLM)に基づく新しいフレームワークを提案する。
言語治療領域における64,177論文からの2,421件の介入を同定した。
論文 参考訳(メタデータ) (2024-08-20T16:42:23Z) - Visual Grounding for Object-Level Generalization in Reinforcement Learning [35.39214541324909]
自然言語命令に従うエージェントにとって、一般化は重要な課題である。
視覚言語モデル(VLM)を用いて視覚的グラウンド化を行い,その知識を強化学習に伝達する。
我々の本質的な報酬は、挑戦的なスキル学習のパフォーマンスを著しく向上させることを示す。
論文 参考訳(メタデータ) (2024-08-04T06:34:24Z) - WESE: Weak Exploration to Strong Exploitation for LLM Agents [95.6720931773781]
本稿では,オープンワールド対話型タスクの解法において,LLMエージェントの強化を目的としたWeak Exploration to Strong Exploitation (WESE)を提案する。
WESEは、探究と搾取のプロセスを分離し、費用対効果の弱いエージェントを用いて世界的知識の探索を行う。
次に、獲得した知識を格納し、タスク関連知識を抽出する知識グラフベースの戦略を導入する。
論文 参考訳(メタデータ) (2024-04-11T03:31:54Z) - KnowAgent: Knowledge-Augmented Planning for LLM-Based Agents [54.09074527006576]
大規模言語モデル(LLM)は複雑な推論タスクにおいて大きな可能性を証明していますが、より高度な課題に取り組むには不十分です。
この不適切さは、主に言語エージェントのアクション知識が組み込まれていないことに起因する。
我々は、明示的な行動知識を取り入れることで、LLMの計画能力を高めるために設計された新しいアプローチであるKnowAgentを紹介する。
論文 参考訳(メタデータ) (2024-03-05T16:39:12Z) - Empowering Large Language Model Agents through Action Learning [85.39581419680755]
大規模言語モデル(LLM)エージェントは最近ますます関心を集めているが、試行錯誤から学ぶ能力は限られている。
我々は、経験から新しい行動を学ぶ能力は、LLMエージェントの学習の進歩に欠かせないものであると論じる。
我々はPython関数の形式でアクションを作成し改善するための反復学習戦略を備えたフレームワークLearningActを紹介した。
論文 参考訳(メタデータ) (2024-02-24T13:13:04Z) - Large Language Model as a Policy Teacher for Training Reinforcement Learning Agents [16.24662355253529]
LLM(Large Language Models)は、高レベルの命令を提供することによって、シーケンシャルな意思決定タスクに対処することができる。
LLMは、特にリアルタイムな動的環境において、特定のターゲット問題に対処する専門性を欠いている。
LLMベースの教師エージェントからの指示を用いて、より小規模で専門的なRLエージェントを訓練することで、これらの課題に対処する新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-22T13:15:42Z) - Self-Knowledge Guided Retrieval Augmentation for Large Language Models [59.771098292611846]
大規模言語モデル(LLM)はタスク固有の微調整なしで優れた性能を示す。
検索に基づく手法は、非パラメトリックな世界知識を提供し、質問応答のようなタスクのパフォーマンスを向上させることができる。
SKR(Self-Knowledge guided Retrieval augmentation)は、LLMがこれまで遭遇した質問を参照できるようにする、シンプルで効果的な方法である。
論文 参考訳(メタデータ) (2023-10-08T04:22:33Z) - ExpeL: LLM Agents Are Experiential Learners [60.54312035818746]
実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。
我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。
推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。
論文 参考訳(メタデータ) (2023-08-20T03:03:34Z) - Improving Language Model Prompting in Support of Semi-autonomous Task
Learning [6.021787236982658]
言語モデル(LLM)は、新しいタスク能力を取得するために必要なエージェントの知識の源としてポテンシャルを提供する。
本稿では,新しいタスクを学習するエージェントに対して有用なLLM応答をもたらす手がかりを構築できる新しいエージェント機能への取り組みについて述べる。
論文 参考訳(メタデータ) (2022-09-13T15:36:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。