論文の概要: A New Dialogue Response Generation Agent for Large Language Models by
Asking Questions to Detect User's Intentions
- arxiv url: http://arxiv.org/abs/2310.03293v1
- Date: Thu, 5 Oct 2023 03:45:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 19:19:34.484205
- Title: A New Dialogue Response Generation Agent for Large Language Models by
Asking Questions to Detect User's Intentions
- Title(参考訳): ユーザの意図検出のための質問による大規模言語モデルのための対話応答生成エージェント
- Authors: Siwei Wu, Xiangqing Shen, and Rui Xia
- Abstract要約: 大規模言語モデル(LLM)は、そのオープンドメイン生成機能のために、様々なNLPタスクに適用されている。
textbfDetect ユーザの textbfImplicit intextbfTentions (textbfEDIT) に対して質問を行うことで, LLM を textbfEnhance 対話応答生成に活用するフレームワークを提案する。
まず、EDITは、対話コンテキストに関連するオープンな質問を潜在的なユーザの意図として生成する。
- 参考スコア(独自算出の注目度): 28.389176266764775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs), such as ChatGPT, have recently been applied to
various NLP tasks due to its open-domain generation capabilities. However,
there are two issues with applying LLMs to dialogue tasks. 1. During the
dialogue process, users may have implicit intentions that might be overlooked
by LLMs. Consequently, generated responses couldn't align with the user's
intentions. 2. It is unlikely for LLMs to encompass all fields comprehensively.
In certain specific domains, their knowledge may be incomplete, and LLMs cannot
update the latest knowledge in real-time. To tackle these issues, we propose a
framework~\emph{using LLM to \textbf{E}nhance dialogue response generation by
asking questions to \textbf{D}etect user's \textbf{I}mplicit
in\textbf{T}entions} (\textbf{EDIT}). Firstly, EDIT generates open questions
related to the dialogue context as the potential user's intention; Then, EDIT
answers those questions by interacting with LLMs and searching in
domain-specific knowledge bases respectively, and use LLMs to choose the proper
answers to questions as extra knowledge; Finally, EDIT enhances response
generation by explicitly integrating those extra knowledge. Besides, previous
question generation works only focus on asking questions with answers in
context. In order to ask open questions, we construct a Context-Open-Question
(COQ) dataset. On two task-oriented dialogue tasks (Wizard of Wikipedia and
Holl-E), EDIT outperformed other LLMs.
- Abstract(参考訳): ChatGPTのような大規模言語モデル(LLM)は、最近、オープンドメイン生成機能のために様々なNLPタスクに適用されている。
しかし,対話タスクにllmを適用する際の問題点は2つある。
1. 対話の過程では, LLM で見落とされる暗黙の意図がある場合がある。
その結果、生成された応答はユーザの意図と一致しなかった。
2. LLM が全分野を包括的に包括する可能性は低い。
特定の分野において、それらの知識は不完全であり、LLMは最新の知識をリアルタイムで更新することはできない。
これらの問題に対処するために,我々は,ユーザによる\textbf{i}mplicit in\textbf{t}entions} (\textbf{edit}) を問うことで,llm を \textbf{e}nhance 対話応答生成のためのフレームワークを提案する。
第一に、editは、対話コンテキストに関するオープン質問を潜在的なユーザの意図として生成し、editは、それぞれ、llmと対話し、ドメイン固有の知識ベースで検索することで、これらの質問に回答し、llmを使用して、質問に対する適切な回答を余分な知識として選択し、editは、これらの余分な知識を明示的に統合することにより、応答生成を強化する。
さらに、過去の質問生成は、文脈における回答による質問のみに焦点を当てている。
オープンな質問をするために、コンテキストオープンクエスト(COQ)データセットを構築します。
タスク指向対話タスク(ウィザード・オブ・ウィキペディアとホール-E)では、EDITは他のLLMよりも優れていた。
関連論文リスト
- Are LLMs Aware that Some Questions are not Open-ended? [58.93124686141781]
大規模言語モデルでは、いくつかの質問が限定的な回答を持ち、より決定論的に答える必要があることを認識しているかどうかを調査する。
LLMにおける疑問認識の欠如は,(1)非オープンな質問に答えるにはカジュアルすぎる,(2)オープンな質問に答えるには退屈すぎる,という2つの現象をもたらす。
論文 参考訳(メタデータ) (2024-10-01T06:07:00Z) - GenSco: Can Question Decomposition based Passage Alignment improve Question Answering? [1.5776201492893507]
ジェンスコ(GenSco)は,マルチホップ質問の予測分解に基づく経路選択手法である。
広範に確立された3つのマルチホップ質問応答データセットについて評価した。
論文 参考訳(メタデータ) (2024-07-14T15:25:08Z) - Plan-Grounded Large Language Models for Dual Goal Conversational
Settings [7.694972908311347]
ユーザインストラクションに従うための大規模言語モデルのトレーニングは、LLMに人間と整合しながら、流動的に会話できる十分な能力を供給することが示されている。
しかし、LLMが混合開始型環境でどのように計画的な会話を導いてくれるかは、完全には明らかではない。
本稿では,手続き的計画に基づく対話を基盤とし,対話の主導権を握り,システムの動作にガードレールを課す新しいLLMを提案する。
論文 参考訳(メタデータ) (2024-02-01T22:56:39Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - FreshLLMs: Refreshing Large Language Models with Search Engine
Augmentation [92.43001160060376]
本研究では,現在の世界知識をテストする質問に答える文脈において,大規模言語モデル(LLM)の事実性について検討する。
多様な質問や回答のタイプを含む新しい動的QAベンチマークであるFreshQAを紹介する。
我々は,2モード評価法により,閉じたLLMとオープンソースのLLMの多種多様な配列をベンチマークし,その正しさと幻覚の両面を計測する。
これらの結果に触発されたFreshPromptは、FreshQA上でのLLMの性能を大幅に向上させる単純な数ショットプロンプトである。
論文 参考訳(メタデータ) (2023-10-05T00:04:12Z) - Investigating Answerability of LLMs for Long-Form Question Answering [35.41413072729483]
実用的で影響力のある応用がいくつかあるので、長文質問応答(LFQA)に焦点を当てる。
本稿では,要約の要約から質問生成手法を提案し,長い文書の要約からフォローアップ質問を生成することで,困難な設定を実現できることを示す。
論文 参考訳(メタデータ) (2023-09-15T07:22:56Z) - Knowledge-Augmented Language Model Prompting for Zero-Shot Knowledge
Graph Question Answering [7.888547093390469]
大言語モデル(LLM)は、ゼロショットのクローズドブック質問応答タスクを実行することができる。
我々は,LSMの入力において,その知識を直接拡張することを提案する。
我々のフレームワークであるKAPING(Knowledge-Augmented Language Model Prompting)は、モデルトレーニングを必要としないため、完全にゼロショットである。
論文 参考訳(メタデータ) (2023-06-07T04:15:21Z) - Question Answering as Programming for Solving Time-Sensitive Questions [84.07553016489769]
質問応答は、世界に関する知識の獲得に関わるため、人間の日常生活において重要な役割を担っている。
近年,Large Language Models (LLMs) は疑問に答える上で顕著な知性を示している。
これはLLMが表面レベルのテキストセマンティクスに基づいて厳密な推論を行うことができないためである。
我々は、$textbfQ$uestion $textbfA$rogrogeringタスクを再設定する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:35:16Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。