論文の概要: AutoGuide: Automated Generation and Selection of State-Aware Guidelines for Large Language Model Agents
- arxiv url: http://arxiv.org/abs/2403.08978v1
- Date: Wed, 13 Mar 2024 22:06:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-15 22:17:16.955531
- Title: AutoGuide: Automated Generation and Selection of State-Aware Guidelines for Large Language Model Agents
- Title(参考訳): AutoGuide:大規模言語モデルエージェントのためのステートアウェアガイドラインの自動生成と選択
- Authors: Yao Fu, Dong-Ki Kim, Jaekyeom Kim, Sungryull Sohn, Lajanugen Logeswaran, Kyunghoon Bae, Honglak Lee,
- Abstract要約: AutoGuideは、オフライン体験における暗黙の知識を活用することで、事前訓練されたLLMの知識ギャップを埋める。
提案手法は, 逐次意思決定ベンチマークにおいて, 競争力のあるLCMベースラインよりも高い性能を示すことを示す。
- 参考スコア(独自算出の注目度): 74.17623527375241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The primary limitation of large language models (LLMs) is their restricted understanding of the world. This poses significant difficulties for LLM-based agents, particularly in domains where pre-trained LLMs lack sufficient knowledge. In this paper, we introduce a novel framework, called AutoGuide, that bridges the knowledge gap in pre-trained LLMs by leveraging implicit knowledge in offline experiences. Specifically, AutoGuide effectively extracts knowledge embedded in offline data by extracting a set of state-aware guidelines. Importantly, each state-aware guideline is expressed in concise natural language and follows a conditional structure, clearly describing the state where it is applicable. As such, the resulting guidelines enable a principled way to provide helpful knowledge pertinent to an agent's current decision-making process. We show that our approach outperforms competitive LLM-based baselines by a large margin in sequential decision-making benchmarks.
- Abstract(参考訳): 大きな言語モデル(LLM)の最大の制限は、世界に対する限定的な理解である。
このことは、特に事前訓練されたLLMが十分な知識を欠いている領域において、LLMベースのエージェントにとって重大な困難をもたらす。
本稿では,オフライン体験における暗黙的知識を活用することで,事前学習されたLLMの知識ギャップを埋める,AutoGuideという新しいフレームワークを提案する。
具体的には、AutoGuideは、状態認識ガイドラインのセットを抽出することで、オフラインデータに埋め込まれた知識を効果的に抽出する。
重要なことに、各状態認識ガイドラインは簡潔な自然言語で表現され、その適用状況を明確に記述した条件構造に従っている。
このように、結果として得られるガイドラインは、エージェントの現在の意思決定プロセスに関連する有益な知識を提供するための原則化された方法を提供する。
提案手法は, 逐次意思決定ベンチマークにおいて, 競争力のあるLCMベースラインよりも高い性能を示すことを示す。
関連論文リスト
- SAME: Learning Generic Language-Guided Visual Navigation with State-Adaptive Mixture of Experts [54.11162991206203]
本稿では,多様なナビゲーションタスクを統一的で汎用的なフレームワークに統合する。
本稿では,エージェントによる意思決定の推論を効果的に行うことのできる,新しい状態適応型エキスパート混合モデルを提案する。
論文 参考訳(メタデータ) (2024-12-07T06:12:53Z) - RAG-Driver: Generalisable Driving Explanations with Retrieval-Augmented In-Context Learning in Multi-Modal Large Language Model [22.25903116720301]
説明責任は、信頼できる自律的な意思決定において重要な役割を果たす。
MLLM(Multi-Modal Large Language Model)の最近の進歩は、駆動エージェントとしての説明可能性を高める有望な可能性を示している。
提案するRAG-Driverは,高機能,説明性,一般化可能な自律運転にコンテキスト内学習を活用する,検索強化型多モード大言語モデルである。
論文 参考訳(メタデータ) (2024-02-16T16:57:18Z) - DFA-RAG: Conversational Semantic Router for Large Language Model with Definite Finite Automaton [44.26173742405563]
本稿では,Definite Finite Automaton (DFA-RAG)を用いた検索強化大言語モデルを提案する。
DFA-RAGは,大規模言語モデル(LLM)を用いた対話エージェントの機能向上を目的としたフレームワークである。
論文 参考訳(メタデータ) (2024-02-06T21:14:45Z) - Generative Context-aware Fine-tuning of Self-supervised Speech Models [54.389711404209415]
生成型大規模言語モデル(LLM)生成コンテキスト情報の利用について検討する。
自己教師型音声モデルの微調整中に生成した情報を抽出する手法を提案する。
本稿では,SLUE と Libri-light のベンチマークを用いて,自動音声認識,名前付きエンティティ認識,感情分析を行う手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T15:46:02Z) - Fast-Slow Test-Time Adaptation for Online Vision-and-Language Navigation [67.18144414660681]
オンラインビジョン・アンド・ランゲージナビゲーション(VLN)のためのFSTTA(Fast-Slow Test-Time Adaptation)アプローチを提案する。
提案手法は,4つのベンチマークにおいて顕著な性能向上を実現する。
論文 参考訳(メタデータ) (2023-11-22T07:47:39Z) - Guideline Learning for In-context Information Extraction [29.062173997909028]
インコンテキスト情報抽出(IE)は近年,研究コミュニティで注目を集めている。
この欠点の主な理由として,未特定なタスク記述を挙げる。
In-context IEのためのガイドライン学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-08T08:25:16Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - Natural Language based Context Modeling and Reasoning for Ubiquitous
Computing with Large Language Models: A Tutorial [35.743576799998564]
大規模言語モデル(LLM)は、コンテキスト対応コンピューティングを導入してから20年が経ち、2018年以来、驚くほど急増している。
本チュートリアルでは,テキスト,プロンプト,自律エージェント(AutoAgents)の使用を実演し,LLMが文脈モデリングや推論を行うことを可能にする。
論文 参考訳(メタデータ) (2023-09-24T00:15:39Z) - Visual-Language Navigation Pretraining via Prompt-based Environmental
Self-exploration [83.96729205383501]
本稿では,言語埋め込みの高速適応を実現するために,プロンプトベースの学習を導入する。
我々のモデルは、VLNやREVERIEを含む多様な視覚言語ナビゲーションタスクに適応することができる。
論文 参考訳(メタデータ) (2022-03-08T11:01:24Z) - AutoPrompt: Eliciting Knowledge from Language Models with Automatically
Generated Prompts [46.03503882865222]
AutoPromptは、勾配誘導検索に基づいて、さまざまなタスクセットのプロンプトを作成する自動メソッドである。
マスク付き言語モデル(MLM)は,感情分析や自然言語推論を,追加パラメータや微調整を伴わずに行う能力を持つことを示す。
論文 参考訳(メタデータ) (2020-10-29T22:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。