論文の概要: Chain-of-thought prompting for responding to in-depth dialogue questions
with LLM
- arxiv url: http://arxiv.org/abs/2305.11792v1
- Date: Fri, 19 May 2023 16:27:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 13:29:46.644170
- Title: Chain-of-thought prompting for responding to in-depth dialogue questions
with LLM
- Title(参考訳): LLMを用いた深い対話質問への応答のためのチェーン・オブ・シント・プロンプト
- Authors: Hongru Wang, Rui Wang, Fei Mi, Zezhong Wang, Ruifeng Xu, Kam-Fai Wong
- Abstract要約: 大型言語モデル(LLM)を直接推進する代わりに、このシナリオにおいてチェーン・オブ・シークレット・プロンプトがどのように役立つかを探求する。
まず、英語と中国語の両方で6つの対話または質問応答データセットのベンチマークを構築した。
テストクエリの代わりに中間推論のセマンティックな類似性を用いた新しいデモ選択戦略を提案する。
- 参考スコア(独自算出の注目度): 33.468267114288096
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The way and content in which users ask questions can provide insight into
their current status, including their personality, emotions, and psychology.
Instead of directly prompting the large language models (LLMs), we explore how
chain-of-thought prompting helps in this scenario to perform reasoning and
planning according to user status, aiming to provide a more personalized and
engaging experience for the user query. To this end, we first construct a
benchmark of 6 dialogue or question-answering datasets in both English and
Chinese, covering 3 different aspects of user status (\textit{including}
\textit{personality}, \textit{emotion}, and \textit{psychology}). Then we
prompt the LLMs to generate the response regarding the user status as
intermediate reasoning processing. We propose a novel demonstration selection
strategy using the semantic similarity of intermediate reasoning instead of
test queries. To evaluate the effectiveness and robustness of our approach, we
conduct extensive experiments with 7 LLMs under zero-shot and one-shot
settings. The experimental results show that our approach consistently
outperforms standard prompting in terms of both \textit{helpfulness} and
\textit{acceptness} across all datasets, regardless of the LLMs used. The code
and dataset can be found at
\url{https://github.com/ruleGreen/Dialogue\_CoT.git}.
- Abstract(参考訳): ユーザが質問する方法や内容は、その人格、感情、心理学など、現在の状況に関する洞察を与えることができる。
大規模言語モデル(LLM)を直接的に促すのではなく、このシナリオにおいてチェーン・オブ・思想のプロンプトが、ユーザステータスに応じて推論と計画を実行し、ユーザクエリに対してよりパーソナライズされ、魅力的なエクスペリエンスを提供することを目指している。
この目的のために、まず英語と中国語の両方で6つの対話または質問応答データセットのベンチマークを構築し、ユーザステータスの3つの異なる側面をカバーする(\textit{including} \textit{personality}, \textit{emotion}, \textit{psychology})。
次に,LCMに中間推論処理としてユーザステータスに関する応答を生成するよう促す。
テストクエリの代わりに中間推論のセマンティックな類似性を用いた新しいデモ選択戦略を提案する。
提案手法の有効性とロバスト性を評価するため,ゼロショットおよびワンショット設定で7 llmを用いた広範囲実験を行った。
実験結果から,本手法は LLM によらず,すべてのデータセットにおいて,textit{helpfulness} と \textit{acceptness} の両方の観点から,標準的プロンプトを一貫して上回っていることがわかった。
コードとデータセットは \url{https://github.com/ruleGreen/Dialogue\_CoT.git} で見ることができる。
関連論文リスト
- Selective Prompting Tuning for Personalized Conversations with LLMs [31.28284591597932]
textbfSelective textbfPrompt textbfTuning (SPT)を提案する。
SPTは、他の重要なパフォーマンス指標の改善とともに、応答の多様性を最大90%向上させる。
論文 参考訳(メタデータ) (2024-06-26T09:03:52Z) - Can LLMs Understand the Implication of Emphasized Sentences in Dialogue? [64.72966061510375]
強調は人間のコミュニケーションにおいて重要な要素であり、対話における純粋テキストを超えて話者の意図と含意を示す。
本稿では,強調の意味を抽出した強調注釈付き対話サンプルを用いたベンチマークであるEmphasized-Talkを紹介する。
オープンソースと商用の両方で様々な大規模言語モデル(LLM)を評価し,その性能を重要視して評価する。
論文 参考訳(メタデータ) (2024-06-16T20:41:44Z) - Interactive Text-to-Image Retrieval with Large Language Models: A Plug-and-Play Approach [33.231639257323536]
本稿では,対話型テキスト・画像検索タスクにおける対話型コンテキストクエリの問題に対処する。
対話形式のコンテキストを再構成することにより、既存の視覚的対話データから検索モデルを微調整する必要がなくなる。
対象画像の属性に関する非冗長な質問を生成するために,LLM質問機を構築した。
論文 参考訳(メタデータ) (2024-06-05T16:09:01Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - SSP: Self-Supervised Post-training for Conversational Search [63.28684982954115]
本稿では,対話型検索モデルを効率的に初期化するための3つの自己教師型タスクを備えた学習後パラダイムであるフルモデル(モデル)を提案する。
提案手法の有効性を検証するために,CAsT-19 と CAsT-20 の2つのベンチマークデータセットを用いて,会話検索タスクにモデルにより訓練後の会話エンコーダを適用した。
論文 参考訳(メタデータ) (2023-07-02T13:36:36Z) - Prompting and Evaluating Large Language Models for Proactive Dialogues:
Clarification, Target-guided, and Non-collaboration [72.04629217161656]
本研究は, 明瞭化, 目標誘導, 非協調対話の3つの側面に焦点をあてる。
LLMの能動性を高めるために,プロアクティブ・チェーン・オブ・ソート・プロンプト方式を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:49:35Z) - Contextual Dynamic Prompting for Response Generation in Task-oriented
Dialog Systems [8.419582942080927]
応答生成はタスク指向対話システムにおいて重要なコンポーネントの1つである。
本稿では,対話コンテキストからプロンプトを学習するテキスト動的プロンプトを実現する手法を提案する。
文脈的動的プロンプトは,3つの絶対点で構造化されたテキスト合成スコア citemehri-etal 2019 を用いて応答生成を改善することを示す。
論文 参考訳(メタデータ) (2023-01-30T20:26:02Z) - GRASP: Guiding model with RelAtional Semantics using Prompt [3.1275060062551208]
本稿では Prompt (GRASP) を用いたRelAtional Semantics を用いた誘導モデルを提案する。
我々は、プロンプトベースの微調整アプローチを採用し、引数を意識したプロンプトマーカー戦略を用いて、ある対話における関係意味的手がかりをキャプチャする。
実験では、DialogREデータセット上でのF1とF1cのスコアの観点から、GRASPの最先端のパフォーマンスが評価された。
論文 参考訳(メタデータ) (2022-08-26T08:19:28Z) - In-Context Learning for Few-Shot Dialogue State Tracking [55.91832381893181]
In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
論文 参考訳(メタデータ) (2022-03-16T11:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。