論文の概要: Asking Before Action: Gather Information in Embodied Decision Making
with Language Models
- arxiv url: http://arxiv.org/abs/2305.15695v1
- Date: Thu, 25 May 2023 04:05:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 17:31:59.839415
- Title: Asking Before Action: Gather Information in Embodied Decision Making
with Language Models
- Title(参考訳): 行動前:言語モデルを用いた身体決定における情報収集
- Authors: Xiaoyu Chen, Shenao Zhang, Pushi Zhang, Li Zhao, Jianyu Chen
- Abstract要約: 本研究では,Large Language Models (LLMs) が不慣れな環境にデプロイした場合,必要な情報を効率的に収集する上で,課題に直面していることを示す。
Askingtextit Before Action (ABA) は、自然言語を用いて外部ソースを積極的にクエリする手法である。
提案手法を具体化意思決定ベンチマークであるALFWorldで実証的に評価し,本手法がベースラインLLMエージェントを40ドル以上超えることを示した。
- 参考スコア(独自算出の注目度): 9.167993825872102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With strong capabilities of reasoning and a generic understanding of the
world, Large Language Models (LLMs) have shown great potential in building
versatile embodied decision making agents capable of performing diverse tasks.
However, when deployed to unfamiliar environments, we show that LLM agents face
challenges in efficiently gathering necessary information, leading to
suboptimal performance. On the other hand, in unfamiliar scenarios, human
individuals often seek additional information from their peers before taking
action, leveraging external knowledge to avoid unnecessary trial and error.
Building upon this intuition, we propose \textit{Asking Before Action} (ABA), a
method that empowers the agent to proactively query external sources for
pertinent information using natural language during their interactions in the
environment. In this way, the agent is able to enhance its efficiency and
performance by mitigating wasteful steps and circumventing the difficulties
associated with exploration in unfamiliar environments. We empirically evaluate
our method on an embodied decision making benchmark, ALFWorld, and demonstrate
that despite modest modifications in prompts, our method exceeds baseline LLM
agents by more than $40$%. Further experiments on two variants of ALFWorld
illustrate that by imitation learning, ABA effectively retains and reuses
queried and known information in subsequent tasks, mitigating the need for
repetitive inquiries. Both qualitative and quantitative results exhibit
remarkable performance on tasks that previous methods struggle to solve.
- Abstract(参考訳): 推論の強い能力と世界の一般的な理解により、Large Language Models (LLM) は多様なタスクを実行できる多種多様な具体的意思決定エージェントを構築する大きな可能性を示している。
しかし、不慣れな環境に展開すると、LLMエージェントは必要な情報を効率的に収集する上で困難に直面し、最適以下の性能をもたらす。
一方、なじみの無いシナリオでは、人間の個人は行動を起こす前に仲間から追加情報を求め、不必要な試行やエラーを避けるために外部知識を活用する。
この直観に基づいて、エージェントが環境における対話中に自然言語を用いて外部の情報源に積極的に問い合わせることのできる方法である \textit{asking before action} (aba)を提案する。
このようにして、無駄なステップを緩和し、不慣れな環境での探索に伴う困難を回避することにより、効率と性能を向上させることができる。
我々は,提案手法を具体化意思決定ベンチマークであるALFWorld上で実証的に評価し,提案手法がベースラインLLMエージェントを40ドル以上上回ることを示す。
ALFWorldの2つの変種に関するさらなる実験は、模倣学習によってABAがクエリや既知の情報を後続のタスクで効果的に保持し再利用し、反復的な問い合わせの必要性を軽減していることを示している。
定性的かつ定量的な結果は、以前の方法が解決に苦慮したタスクに顕著なパフォーマンスを示す。
関連論文リスト
- Context Retrieval via Normalized Contextual Latent Interaction for
Conversational Agent [3.9635467316436133]
本稿では,会話応答の質を向上させるために,関連情報を正確かつ効率的に識別できる新しい手法であるPK-NCLIを提案する。
実験の結果, PK-NCLIは, 難易度, 知識基盤, 訓練効率において, 最先端のPK-FoCuよりも優れていた。
論文 参考訳(メタデータ) (2023-12-01T18:53:51Z) - Mastering the Task of Open Information Extraction with Large Language
Models and Consistent Reasoning Environment [52.592199835286394]
オープン情報抽出(OIE)は、自然文から客観的な構造化された知識を抽出することを目的としている。
大規模言語モデル(LLM)は、テキスト内学習能力に優れています。
論文 参考訳(メタデータ) (2023-10-16T17:11:42Z) - Self-Knowledge Guided Retrieval Augmentation for Large Language Models [59.771098292611846]
大規模言語モデル(LLM)はタスク固有の微調整なしで優れた性能を示す。
検索に基づく手法は、非パラメトリックな世界知識を提供し、質問応答のようなタスクのパフォーマンスを向上させることができる。
SKR(Self-Knowledge guided Retrieval augmentation)は、LLMがこれまで遭遇した質問を参照できるようにする、シンプルで効果的な方法である。
論文 参考訳(メタデータ) (2023-10-08T04:22:33Z) - Augmenting LLMs with Knowledge: A survey on hallucination prevention [0.0]
この調査は言語モデル(LM)の領域を掘り下げ、外部の知識ソースをタップする機能を備えている。
欠落したトークンを予測するという標準的な目的に固執する一方で、これらの拡張LMは多種多様で、おそらくパラメトリックでない外部モジュールを活用する。
論文 参考訳(メタデータ) (2023-09-28T14:09:58Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - ExpeL: LLM Agents Are Experiential Learners [60.54312035818746]
実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。
我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。
推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。
論文 参考訳(メタデータ) (2023-08-20T03:03:34Z) - Thrust: Adaptively Propels Large Language Models with External Knowledge [58.72867916604562]
大規模事前学習言語モデル(PTLM)は、モデルパラメータの豊富な知識を符号化する。
PTLMの固有の知識は不透明または静的であり、外部の知識を必要とする。
本稿では,外部知識のインスタンスレベル適応推進(IAPEK)を提案する。
論文 参考訳(メタデータ) (2023-07-19T20:16:46Z) - Improving Knowledge Extraction from LLMs for Task Learning through Agent
Analysis [4.055489363682198]
大規模言語モデル(LLM)は、タスク学習の知識源として大きな可能性を秘めている。
プロンプト工学は、LLMから知識を引き出すのに有効であることが示されているが、同時に、新しいタスクを具現化したエージェント学習のための、適切な、状況に根ざした知識を得るには不十分である。
本稿では,認知エージェントアプローチであるSTARSについて述べる。これは,迅速なエンジニアリングを拡張し,その制限を緩和し,エージェントがネイティブ言語能力,具体化,環境,ユーザ嗜好に適合する新たなタスク知識を取得できるようにする。
論文 参考訳(メタデータ) (2023-06-11T20:50:14Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z) - Active Feature Acquisition with Generative Surrogate Models [11.655069211977464]
本研究では,アクティブ機能獲得(AFA)を行うモデルについて検討し,未観測機能に対する環境問合せを行う。
我々の研究は、AFA問題を生成的モデリングタスクとして根底にあるマルコフ決定プロセス(MDP)を再構築する。
本稿では,入力特徴間の依存関係を捕捉し,取得から得られる潜在的な情報を評価する生成代理モデル(GSM)の学習を提案する。
論文 参考訳(メタデータ) (2020-10-06T02:10:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。