論文の概要: Plan-Grounded Large Language Models for Dual Goal Conversational
Settings
- arxiv url: http://arxiv.org/abs/2402.01053v1
- Date: Thu, 1 Feb 2024 22:56:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 17:27:36.544403
- Title: Plan-Grounded Large Language Models for Dual Goal Conversational
Settings
- Title(参考訳): デュアルゴール対話設定のための計画型大言語モデル
- Authors: Diogo Gl\'oria-Silva, Rafael Ferreira, Diogo Tavares, David Semedo,
Jo\~ao Magalh\~aes
- Abstract要約: ユーザインストラクションに従うための大規模言語モデルのトレーニングは、LLMに人間と整合しながら、流動的に会話できる十分な能力を供給することが示されている。
しかし、LLMが混合開始型環境でどのように計画的な会話を導いてくれるかは、完全には明らかではない。
本稿では,手続き的計画に基づく対話を基盤とし,対話の主導権を握り,システムの動作にガードレールを課す新しいLLMを提案する。
- 参考スコア(独自算出の注目度): 7.694972908311347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training Large Language Models (LLMs) to follow user instructions has been
shown to supply the LLM with ample capacity to converse fluently while being
aligned with humans. Yet, it is not completely clear how an LLM can lead a
plan-grounded conversation in mixed-initiative settings where instructions flow
in both directions of the conversation, i.e. both the LLM and the user provide
instructions to one another. In this paper, we tackle a dual goal
mixed-initiative conversational setting where the LLM not only grounds the
conversation on an arbitrary plan but also seeks to satisfy both a procedural
plan and user instructions. The LLM is then responsible for guiding the user
through the plan and, at the same time, adapting to new circumstances,
answering questions, and activating safety guardrails when needed. We propose a
novel LLM that grounds the dialogue on a procedural plan, can take the dialogue
initiative, and enforces guardrails on the system's behavior, while also
improving the LLM's responses to unexpected user behavior. Experiments in
controlled settings and with real users show that the best-performing model,
which we call PlanLLM, achieves a 2.1x improvement over a strong baseline.
Moreover, experiments also show good generalization to unseen domains.
- Abstract(参考訳): ユーザ指示に従うための大規模言語モデル(llm)のトレーニングは、人間と整列しながら会話するのに十分な能力をllmに提供できることが示されている。
しかし、LLMが会話の両方向、すなわちLLMとユーザが相互に指示する指示を流す混合開始的設定において、どのようにしてLLMが平面会話を導出できるかは明らかになっていない。
本稿では、LLMが任意の計画に基づいて会話を行うだけでなく、手続き計画とユーザ指示の両方を満足させようとする、二重目標混合開始型会話設定に取り組む。
LLMは、計画を通じてユーザーを誘導すると同時に、新しい状況に適応し、質問に答え、必要に応じて安全ガードレールを発動する責任を負う。
本稿では,手続き計画の対話を根拠に,対話イニシアチブを受け取り,システムの動作にガードレールを強制すると同時に,予期しないユーザの行動に対するllmの応答を改善する新しいllmを提案する。
制御された設定と実際のユーザによる実験では、PlanLLMと呼ばれる最高のパフォーマンスモデルは、強いベースラインよりも2.1倍改善されている。
さらに、実験は未発見領域への良い一般化を示す。
関連論文リスト
- RePrompt: Planning by Automatic Prompt Engineering for Large Language Models Agents [27.807695570974644]
大規模言語モデル(LLM)は、従来の自然言語処理以外の領域で顕著な成功を収めている。
LLMエージェントのプロンプトにおけるステップバイステップ命令を最適化する「段階的な降下」を行う新しい手法である textscRePrompt を提案する。
論文 参考訳(メタデータ) (2024-06-17T01:23:11Z) - From Words to Actions: Unveiling the Theoretical Underpinnings of LLM-Driven Autonomous Systems [59.40480894948944]
大規模言語モデル (LLM) は、物理世界の意思決定問題を解くことができる。
このモデルの下で、LLM Plannerは、プロンプトを介して言語ベースのサブゴールを反復的に生成することにより、部分的に観測可能なマルコフ決定プロセス(POMDP)をナビゲートする。
我々は,事前学習したLLMプランナーが,文脈内学習を通じてベイズ的集計模倣学習(BAIL)を効果的に行うことを証明した。
論文 参考訳(メタデータ) (2024-05-30T09:42:54Z) - DuetSim: Building User Simulator with Dual Large Language Models for Task-Oriented Dialogues [7.765092134290888]
本稿では,大規模言語モデルを活用することで,タスク指向対話の複雑な要求に対処する新しいフレームワークであるDuetSimを紹介する。
DuetSim は2つの LLM をタンデムで採用することで従来の手法とは異なっている。
提案手法の有効性を,MultiWOZデータセットを用いた広範囲な実験により検証し,応答品質と正しさの向上を強調した。
論文 参考訳(メタデータ) (2024-05-16T06:24:31Z) - Empowering Large Language Models on Robotic Manipulation with Affordance Prompting [23.318449345424725]
大規模な言語モデルは、制御シーケンスを適切に生成することで物理世界と相互作用することができない。
既存のLLMベースのアプローチでは、事前定義されたスキルや事前訓練されたサブ政治に頼ることでこの問題を回避することができる。
サブタスクプランナとモーションコントローラの両方をLLM+A(ffordance)と呼ぶフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-17T03:06:32Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - Learning to Plan with Natural Language [111.76828049344839]
大規模言語モデル(LLM)は、様々な基本自然言語タスクにおいて顕著な性能を示している。
複雑なタスクを完了するためには、ステップごとに特定のソリューションを生成するためにLCMをガイドするタスクの計画が必要です。
本研究では,(1)第1学習課題計画フェーズにおいて,LCMが学習エラーフィードバックから導出するように促した新たなステップバイステップのソリューションと行動指示を用いてタスク計画を反復的に更新する,という2つの段階を含む学習計画手法を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:09:12Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。