論文の概要: Zero-Shot and Efficient Clarification Need Prediction in Conversational Search
- arxiv url: http://arxiv.org/abs/2503.00179v1
- Date: Fri, 28 Feb 2025 20:49:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:27:12.258806
- Title: Zero-Shot and Efficient Clarification Need Prediction in Conversational Search
- Title(参考訳): 会話探索におけるゼロショットと効率的な明確化の必要性予測
- Authors: Lili Lu, Chuan Meng, Federico Ravenda, Mohammad Aliannejadi, Fabio Crestani,
- Abstract要約: ゼロショットで効率的なCNPフレームワーク(Zef-CNP)を提案する。
まず、ゼロショット方式で大規模言語モデル(LLM)をプロンプトし、2組の合成クエリを生成する。
次に、生成されたクエリを使用して、効率的なCNPモデルをトレーニングします。
- 参考スコア(独自算出の注目度): 7.791642719869652
- License:
- Abstract: Clarification need prediction (CNP) is a key task in conversational search, aiming to predict whether to ask a clarifying question or give an answer to the current user query. However, current research on CNP suffers from the issues of limited CNP training data and low efficiency. In this paper, we propose a zero-shot and efficient CNP framework (Zef-CNP), in which we first prompt large language models (LLMs) in a zero-shot manner to generate two sets of synthetic queries: ambiguous and specific (unambiguous) queries. We then use the generated queries to train efficient CNP models. Zef-CNP eliminates the need for human-annotated clarification-need labels during training and avoids the use of LLMs with high query latency at query time. To further improve the generation quality of synthetic queries, we devise a topic-, information-need-, and query-aware chain-of-thought (CoT) prompting strategy (TIQ-CoT). Moreover, we enhance TIQ-CoT with counterfactual query generation (CoQu), which guides LLMs first to generate a specific/ambiguous query and then sequentially generate its corresponding ambiguous/specific query. Experimental results show that Zef-CNP achieves superior CNP effectiveness and efficiency compared with zero- and few-shot LLM-based CNP predictors.
- Abstract(参考訳): CNP(Clarification Need Prediction)は、会話検索において重要な課題であり、明確な質問をするか、現在のユーザクエリに回答するかを予測することを目的としている。
しかし、CNPに関する現在の研究は、限られたCNPトレーニングデータと低効率の問題に悩まされている。
本稿では、ゼロショットで効率的なCNPフレームワーク(Zef-CNP)を提案する。このフレームワークは、まず、ゼロショット方式で大規模言語モデル(LLM)をプロンプトし、2種類の合成クエリを生成する。
次に、生成されたクエリを使用して、効率的なCNPモデルをトレーニングします。
Zef-CNPは、トレーニング中に人間に注釈付けされた明確化関連ラベルの必要性を排除し、クエリ時に高いクエリ待ち時間を持つLLMの使用を避ける。
合成クエリの生成品質をさらに向上するため,トピック,情報重視,クエリ対応チェーン・オブ・シークレット(CoT)プロンプト戦略(TIQ-CoT)を考案した。
さらに,TIQ-CoT を反ファクトクエリ生成 (CoQu) で拡張し,まず LLM を誘導して特定の/曖昧なクエリを生成し,それに対応するあいまい/特異なクエリを逐次生成する。
実験結果から,Zef-CNPはゼロショットと少数ショットのLLMベースのCNP予測器に比べて優れたCNP効率と効率を実現することが示された。
関連論文リスト
- Order-agnostic Identifier for Large Language Model-based Generative Recommendation [94.37662915542603]
アイテムは、ユーザ履歴をエンコードし、次のアイテムを生成するために、LLM(Large Language Models)の識別子に割り当てられる。
既存のアプローチでは、トークンシーケンス識別子を使用して、アイテムを個別のトークンシーケンスとして表現するか、IDまたはセマンティック埋め込みを使用して単一トークン識別子を使用する。
本稿では,セマンティック・トークンライザを利用するSETRecを提案する。
論文 参考訳(メタデータ) (2025-02-15T15:25:38Z) - Neural-Symbolic Message Passing with Dynamic Pruning [22.485655410582375]
本稿では,ニューラルネットワーク予測器を用いたNSMP(Neural-Symbolic Message Passing)フレームワークを提案する。
シンボリック推論とファジィ論理を導入することで、NSMPはトレーニングを必要とせずに任意の一階述語論理クエリに一般化することができる。
このアプローチと比較すると、NSMPはベンチマークデータセット上のすべてのクエリタイプに対して、より高速な推論時間を示す。
論文 参考訳(メタデータ) (2025-01-24T17:30:17Z) - Prompting Strategies for Enabling Large Language Models to Infer Causation from Correlation [68.58373854950294]
我々は因果推論に焦点をあて,相関情報に基づく因果関係の確立という課題に対処する。
この問題に対して,元のタスクを固定的なサブクエストに分割するプロンプト戦略を導入する。
既存の因果ベンチマークであるCorr2Causeに対するアプローチを評価した。
論文 参考訳(メタデータ) (2024-12-18T15:32:27Z) - Instance-adaptive Zero-shot Chain-of-Thought Prompting [32.700073951068575]
Zero-shot Chain-of-Thought (CoT) は,実世界の推論タスクにおける大規模言語モデル(LLM)の性能向上のための,シンプルかつ効果的な戦略として出現する。
この研究は、良いプロンプトと悪いプロンプトを適応的に微分することで、代替のゼロショットCoT推論スキームとして、インスタンス適応プロンプトアルゴリズムを導入する。
論文 参考訳(メタデータ) (2024-09-30T16:00:34Z) - Prompting Large Language Models with Chain-of-Thought for Few-Shot
Knowledge Base Question Generation [19.327008532572645]
知識ベースに関する質問生成(KBQG)は、論理形式を自然言語の質問に変換することを目的としている。
推論のためのコンテキスト内学習戦略であるChain-of-Thoughtプロンプトを提案する。
3つのKBQGデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-12T15:08:14Z) - Rethinking Model Selection and Decoding for Keyphrase Generation with
Pre-trained Sequence-to-Sequence Models [76.52997424694767]
キーフレーズ生成(英: Keyphrase Generation, KPG)は、NLPにおける長年の課題である。
Seq2seq 事前訓練言語モデル (PLM) は KPG に転換期を迎え、有望な性能改善をもたらした。
本稿では, PLM に基づく KPG におけるモデル選択と復号化戦略の影響について, 系統解析を行った。
論文 参考訳(メタデータ) (2023-10-10T07:34:45Z) - MinPrompt: Graph-based Minimal Prompt Data Augmentation for Few-shot Question Answering [64.6741991162092]
オープンドメイン質問応答のための最小限のデータ拡張フレームワークMinPromptを提案する。
我々は、生テキストをグラフ構造に変換し、異なる事実文間の接続を構築する。
次に、グラフアルゴリズムを適用して、原文のほとんどの情報をカバーするのに必要な最小限の文の集合を識別する。
同定された文サブセットに基づいてQAペアを生成し、選択した文に基づいてモデルをトレーニングし、最終モデルを得る。
論文 参考訳(メタデータ) (2023-10-08T04:44:36Z) - Latent Bottlenecked Attentive Neural Processes [71.18817592128207]
LBANP(Latent Bottlenecked Attentive Neural Processs)について
LBANPは、コンテキストデータポイントの数によらず、クエリ処理の複雑さを持つ。
LBANPは,メタ回帰,画像補完,コンテキスト的マルチアームバンディットに関する最先端技術と競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2022-11-15T19:21:41Z) - AdaPrompt: Adaptive Model Training for Prompt-based NLP [77.12071707955889]
PLMの継続事前学習のための外部データを適応的に検索するAdaPromptを提案する。
5つのNLPベンチマークの実験結果から、AdaPromptは数ショット設定で標準PLMよりも改善可能であることが示された。
ゼロショット設定では、標準のプロンプトベースの手法を26.35%の相対誤差削減で上回ります。
論文 参考訳(メタデータ) (2022-02-10T04:04:57Z) - Message Passing Neural Processes [3.0969191504482247]
本稿では,モデル内の関係構造を明示的に利用するMPNP(Message Passing Neural Processs)を紹介する。
MPNPは、既存のベンチマークと新たに提案されたCAとCola-Branchedタスクに基づいて、より低いサンプリングレートで成長する。
本稿では、密度に基づくCAルールセットに対する強力な一般化と、任意のラベリングと数発の学習設定に挑戦する際の顕著な向上について報告する。
論文 参考訳(メタデータ) (2020-09-29T09:40:09Z) - Efficient Neural Query Auto Completion [17.58784759652327]
クエリオートコンプリートシステムでは,3つの大きな課題が報告されている。
従来のQACシステムは、検索ログのクエリ候補頻度などの手作り機能に依存している。
本稿では,これらの課題を克服するために,効果的なコンテキストモデリングを用いた効率的なニューラルネットワークQACシステムを提案する。
論文 参考訳(メタデータ) (2020-08-06T21:28:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。