論文の概要: Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs
- arxiv url: http://arxiv.org/abs/2305.11792v2
- Date: Sun, 15 Oct 2023 12:54:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 23:16:50.663891
- Title: Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs
- Title(参考訳): cue-cot: llmsによる詳細な対話質問への回答のための思考の連鎖
- Authors: Hongru Wang, Rui Wang, Fei Mi, Yang Deng, Zezhong Wang, Bin Liang,
Ruifeng Xu, Kam-Fai Wong
- Abstract要約: 我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 59.74002011562726
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs), such as \texttt{ChatGPT}, greatly empower
dialogue systems with strong language understanding and generation
capabilities. However, most of the previous works prompt the LLMs to directly
generate a response based on the dialogue context, overlooking the underlying
linguistic cues about the user status exhibited in the context. Such in-depth
dialogue scenarios are challenging for existing LLMs to figure out the user's
hidden needs and respond satisfactorily through a single-step inference. To
this end, we propose a novel linguistic cue-based chain-of-thoughts
(\textit{Cue}-CoT), which enhances the LLMs inference with an intermediate
reasoning step to find cues exhibited in the dialogue, aiming to provide a more
personalized and engaging response. To evaluate the approach, we build a
benchmark with in-depth dialogue questions, consisting of 6 datasets in both
Chinese and English, targeting 3 major linguistic cues during the conversation:
\textit{personality}, \textit{emotion}, and \textit{psychology}. We conduct
extensive experiments on the proposed benchmark with 5 LLMs under both
zero-shot and one-shot settings. Empirical results demonstrate our proposed
\textit{Cue}-CoT method outperforms standard prompting methods in terms of both
\textit{helpfulness} and \textit{acceptability} on all datasets.
- Abstract(参考訳): より大きな言語モデル(LLM)、例えば \texttt{ChatGPT} は、強力な言語理解と生成能力を持つ対話システムを大幅に強化する。
しかし、以前の作品の多くは、llmが会話コンテキストに基づいて直接応答を生成し、コンテキストに表示されたユーザステータスに関する言語的ヒントを見渡すよう促している。
このような奥行きの対話シナリオは、既存のLLMがユーザの隠れたニーズを把握し、単一ステップの推論によって満足して応答することが困難である。
そこで本研究では,LLMの推論を中間的推論ステップで強化し,対話で提示された手がかりを検索し,よりパーソナライズされ,魅力的な応答を提供することを目的とした,新たな言語的キューベースの連鎖(\textit{Cue}-CoT)を提案する。
提案手法を評価するために,中国語と英語の両方で6つのデータセットからなり,会話中の3つの主要な言語的手がかりである「textit{personality}」,「textit{emotion}」,「textit{psychology}」の3つを対象とする詳細な対話質問を用いたベンチマークを構築した。
ゼロショット設定とワンショット設定の両方で, 5 LLM を用いて提案したベンチマーク実験を行った。
実験結果から,提案手法は,すべてのデータセットにおいて,標準プロンプトメソッドよりも, \textit{helpfulness} と \textit{acceptability} の両方の点で優れることが示された。
関連論文リスト
- Selective Prompting Tuning for Personalized Conversations with LLMs [31.28284591597932]
textbfSelective textbfPrompt textbfTuning (SPT)を提案する。
SPTは、他の重要なパフォーマンス指標の改善とともに、応答の多様性を最大90%向上させる。
論文 参考訳(メタデータ) (2024-06-26T09:03:52Z) - Can LLMs Understand the Implication of Emphasized Sentences in Dialogue? [64.72966061510375]
強調は人間のコミュニケーションにおいて重要な要素であり、対話における純粋テキストを超えて話者の意図と含意を示す。
本稿では,強調の意味を抽出した強調注釈付き対話サンプルを用いたベンチマークであるEmphasized-Talkを紹介する。
オープンソースと商用の両方で様々な大規模言語モデル(LLM)を評価し,その性能を重要視して評価する。
論文 参考訳(メタデータ) (2024-06-16T20:41:44Z) - Interactive Text-to-Image Retrieval with Large Language Models: A Plug-and-Play Approach [33.231639257323536]
本稿では,対話型テキスト・画像検索タスクにおける対話型コンテキストクエリの問題に対処する。
対話形式のコンテキストを再構成することにより、既存の視覚的対話データから検索モデルを微調整する必要がなくなる。
対象画像の属性に関する非冗長な質問を生成するために,LLM質問機を構築した。
論文 参考訳(メタデータ) (2024-06-05T16:09:01Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - SSP: Self-Supervised Post-training for Conversational Search [63.28684982954115]
本稿では,対話型検索モデルを効率的に初期化するための3つの自己教師型タスクを備えた学習後パラダイムであるフルモデル(モデル)を提案する。
提案手法の有効性を検証するために,CAsT-19 と CAsT-20 の2つのベンチマークデータセットを用いて,会話検索タスクにモデルにより訓練後の会話エンコーダを適用した。
論文 参考訳(メタデータ) (2023-07-02T13:36:36Z) - Prompting and Evaluating Large Language Models for Proactive Dialogues:
Clarification, Target-guided, and Non-collaboration [72.04629217161656]
本研究は, 明瞭化, 目標誘導, 非協調対話の3つの側面に焦点をあてる。
LLMの能動性を高めるために,プロアクティブ・チェーン・オブ・ソート・プロンプト方式を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:49:35Z) - Contextual Dynamic Prompting for Response Generation in Task-oriented
Dialog Systems [8.419582942080927]
応答生成はタスク指向対話システムにおいて重要なコンポーネントの1つである。
本稿では,対話コンテキストからプロンプトを学習するテキスト動的プロンプトを実現する手法を提案する。
文脈的動的プロンプトは,3つの絶対点で構造化されたテキスト合成スコア citemehri-etal 2019 を用いて応答生成を改善することを示す。
論文 参考訳(メタデータ) (2023-01-30T20:26:02Z) - GRASP: Guiding model with RelAtional Semantics using Prompt [3.1275060062551208]
本稿では Prompt (GRASP) を用いたRelAtional Semantics を用いた誘導モデルを提案する。
我々は、プロンプトベースの微調整アプローチを採用し、引数を意識したプロンプトマーカー戦略を用いて、ある対話における関係意味的手がかりをキャプチャする。
実験では、DialogREデータセット上でのF1とF1cのスコアの観点から、GRASPの最先端のパフォーマンスが評価された。
論文 参考訳(メタデータ) (2022-08-26T08:19:28Z) - In-Context Learning for Few-Shot Dialogue State Tracking [55.91832381893181]
In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
論文 参考訳(メタデータ) (2022-03-16T11:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。