論文の概要: Prompt Optimization of Large Language Model for Interactive Tasks
without Gradient and Demonstrations
- arxiv url: http://arxiv.org/abs/2305.15064v1
- Date: Wed, 24 May 2023 11:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 16:16:45.127307
- Title: Prompt Optimization of Large Language Model for Interactive Tasks
without Gradient and Demonstrations
- Title(参考訳): グラディエント・デモのない対話型タスクのための大規模言語モデルのプロンプト最適化
- Authors: Siqi Ouyang and Lei Li
- Abstract要約: 大規模言語モデル(LLM)は言語能力に優れるが、対話型タスクを独立して解く際には課題に直面している。
グラデーションアクセスや広範囲な実証を行うことなく,LSMがこれらの課題に対処できる新しいアプローチ LLM-PO を提案する。
HotpotQAの実験では、LLM-POはテキスト内学習(ICL)のベースラインよりも高いもしくは同等の成功率を達成することが示された。
- 参考スコア(独自算出の注目度): 11.590185329638809
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large language models (LLMs) have demonstrated remarkable language
proficiency, but they face challenges when solving interactive tasks
independently. Existing methods either rely on gradient access, which is often
inaccessible in state-of-the-art LLMs like GPT-4, or necessitate diverse and
high-quality in-context demonstrations. In this study, we propose LLM-PO, a
novel approach that enables LLMs to address these tasks without gradient access
or extensive demonstrations. The key idea is to maintain a text-based plan and
ask LLMs to reflect on pros and cons of the current plan based on experience
collected with it, to update the plan, and to collect more experiences with the
new plan. Experiments on HotpotQA demonstrate that LLM-PO achieves higher or on
par success rates compared to in-context learning (ICL) baselines while
requiring less inference cost.
- Abstract(参考訳): 大規模言語モデル(LLM)は言語能力に優れるが、対話型タスクを独立して解く際には課題に直面している。
既存のメソッドはグラデーションアクセスに依存しており、gpt-4のような最先端のllmではアクセスできないことが多い。
本研究では,LSM-POを提案する。LSMは,勾配アクセスや広範囲な実演なしにこれらの課題に対処できる新しい手法である。
鍵となるアイデアは、テキストベースの計画を維持し、現在の計画の長所と短所を反映するようにLCMに依頼し、その計画を更新し、新しい計画でより多くの経験を集めることである。
HotpotQAの実験では、LLM-POは推論コストを抑えつつ、テキスト内学習(ICL)ベースラインよりも高いもしくは同等の成功率を達成することが示された。
関連論文リスト
- Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - AutoML-Agent: A Multi-Agent LLM Framework for Full-Pipeline AutoML [56.565200973244146]
自動機械学習(Automated Machine Learning, ML)は、開発パイプライン内のタスクを自動化することによって、AI開発を加速する。
近年の作業では,そのような負担を軽減するために,大規模言語モデル(LLM)の利用が始まっている。
本稿では,フルパイプのAutoMLに適した新しいマルチエージェントフレームワークであるAutoML-Agentを提案する。
論文 参考訳(メタデータ) (2024-10-03T20:01:09Z) - Sub-goal Distillation: A Method to Improve Small Language Agents [21.815417165548187]
大規模言語モデル(LLM)は対話型タスクにおけるエージェントとして大きな可能性を証明している。
数十億のパラメータを持つLLMの性能を、はるかに小さな言語モデルに転送する手法を提案する。
困難かつマルチタスクな対話型テキスト環境であるScienceWorldでは,基本動作のみに基づく標準的な模倣学習を16.7%超えている。
論文 参考訳(メタデータ) (2024-05-04T20:34:06Z) - LLM-Assist: Enhancing Closed-Loop Planning with Language-Based Reasoning [65.86754998249224]
従来のルールベースプランナとLCMベースのプランナを併用した,新しいハイブリッドプランナを開発した。
当社のアプローチでは,既存のプランナが苦労する複雑なシナリオをナビゲートし,合理的なアウトプットを生成すると同時に,ルールベースのアプローチと連携して作業する。
論文 参考訳(メタデータ) (2023-12-30T02:53:45Z) - AutoPlanBench: Automatically generating benchmarks for LLM planners from
PDDL [52.005042190810116]
PDDLで書かれたベンチマークをテキスト記述に変換する新しい手法であるAutoPlanBenchを提案する。
優れたLCMプランナーは計画タスクをうまくこなすが、他のプランナーは現在の手法には及ばない。
論文 参考訳(メタデータ) (2023-11-16T11:55:27Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - Dynamic Planning with a LLM [15.430182858130884]
大言語モデル(LLM)はゼロショット設定で多くのNLPタスクを解くことができるが、具体化エージェントを含むアプリケーションは依然として問題である。
LLM動的プランナー(LLM-DP)は,LLMが従来のプランナーと手動で作業し,具体的課題を解決する,神経象徴的な枠組みである。
論文 参考訳(メタデータ) (2023-08-11T21:17:13Z) - Enabling Intelligent Interactions between an Agent and an LLM: A Reinforcement Learning Approach [31.6589518077397]
大規模言語モデル(LLM)は、大量のテキストデータセットから得られた膨大な量の世界の知識を符号化する。
LLMは、高レベルな命令を提供することで、複雑なシーケンシャルな意思決定タスクを解決するための実施エージェントを支援することができる。
本研究では,高レベルの命令に対してLLMを問合せする必要がある場合に学習する強化学習ベースのアプローチである When2Ask を提案する。
論文 参考訳(メタデータ) (2023-06-06T11:49:09Z) - Plan, Eliminate, and Track -- Language Models are Good Teachers for
Embodied Agents [99.17668730578586]
事前訓練された大言語モデル(LLM)は、世界に関する手続き的な知識をキャプチャする。
Plan, Eliminate, and Track (PET)フレームワークはタスク記述をハイレベルなサブタスクのリストに変換する。
PETフレームワークは、人間の目標仕様への一般化のために、SOTAよりも15%改善されている。
論文 参考訳(メタデータ) (2023-05-03T20:11:22Z) - LLM-Planner: Few-Shot Grounded Planning for Embodied Agents with Large
Language Models [27.318186938382233]
本研究では,大規模言語モデル(LLM)を具体化エージェントのプランナーとして用いることに焦点を当てた。
そこで本研究では,大規模言語モデルのパワーを活かして少数ショットプランニングを行う新しい手法 LLM-Planner を提案する。
論文 参考訳(メタデータ) (2022-12-08T05:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。