論文の概要: Structured Chain-of-Thought Prompting for Few-Shot Generation of
Content-Grounded QA Conversations
- arxiv url: http://arxiv.org/abs/2402.11770v1
- Date: Mon, 19 Feb 2024 01:49:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 18:54:06.946550
- Title: Structured Chain-of-Thought Prompting for Few-Shot Generation of
Content-Grounded QA Conversations
- Title(参考訳): コンテントグラウンドQA会話のFew-Shot生成のための構造化連鎖プロンプト
- Authors: Md Arafat Sultan and Jatin Ganhotra and Ram\'on Fernandez Astudillo
- Abstract要約: 本稿では,構造化チェーン・オブ・シークレット (SCoT) を用いて,コンテントグラウンドによる質問応答会話を生成する手法を提案する。
実験の結果,SCoTによる幻覚の緩和は,文書の接地に対するエージェント忠実度を最大16.8%向上させることがわかった。
- 参考スコア(独自算出の注目度): 13.079363878392105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a structured chain-of-thought (SCoT) prompting approach to
generating content-grounded multi-turn question-answer conversations using a
pre-trained large language model (LLM). At the core of our proposal is a
structured breakdown of the complex task into a number of states in a state
machine, so that actions corresponding to various subtasks, e.g., content
reading and utterance generation, can be executed in their own dedicated
states. Each state leverages a unique set of resources including prompts and
(optionally) additional tools to augment the generation process. Our
experimental results show that SCoT prompting with designated states for
hallucination mitigation increases agent faithfulness to grounding documents by
up to 16.8%. When used as training data, our open-domain conversations
synthesized from only 6 Wikipedia-based seed demonstrations train strong
conversational QA agents; in out-of-domain evaluation, for example, we observe
improvements of up to 13.9% over target domain gold data when the latter is
augmented with our generated examples.
- Abstract(参考訳): 本稿では,事前学習された大言語モデル(LLM)を用いて,コンテント・グラウンド・マルチターン質問応答会話を生成するための構造化チェーン・オブ・シント(SCoT)を提案する。
我々の提案の核心は、複雑なタスクをステートマシン内の複数の状態に構造化し、コンテンツ読み込みや発話生成といった様々なサブタスクに対応するアクションを、それぞれの専用状態で実行できるようにすることである。
各状態はプロンプトや(オプションで)追加ツールを含むユニークなリソースセットを活用して生成プロセスを強化している。
実験の結果,SCoTによる幻覚の緩和は,文書の接地に対するエージェント忠実度を最大16.8%向上させることがわかった。
トレーニングデータとして使用する場合、ウィキペディアをベースとした6つのシードデモから合成したオープンドメインの会話は、強力な会話型QAエージェントを訓練する。
関連論文リスト
- Learning When to Retrieve, What to Rewrite, and How to Respond in Conversational QA [16.1357049130957]
シングルターンSELF-RAGフレームワークを構築し,会話設定のためのSELF-multi-RAGを提案する。
SELF-multi-RAGは、関連するパスの検索に関して、シングルターン変種よりも改善された機能を示す。
論文 参考訳(メタデータ) (2024-09-23T20:05:12Z) - Retrieval Augmented End-to-End Spoken Dialog Models [20.896330994089283]
音声信号から直接ダイアログ状態が推測される音声対話アプリケーションにSLMを適用する。
RAG(retrieval-augmented generation)パラダイムにヒントを得て,この弱点を克服する検索拡張SLM(ReSLM)を提案する。
音声MultipleWozタスク(DSTC-11チャレンジ)を用いてReSLMを評価し,この検索によりモデル性能が向上することを確認した。
論文 参考訳(メタデータ) (2024-02-02T18:23:09Z) - UniMS-RAG: A Unified Multi-source Retrieval-Augmented Generation for
Personalized Dialogue Systems [44.893215129952395]
大規模言語モデル(LLM)は多くの自然言語理解および生成タスクにおいて例外的な機能を示している。
我々は、パーソナライズされた応答を3つのサブタスク(知識ソース選択、知識検索、応答生成)に分解する。
統一多ソース検索拡張生成システム(UniMS-RAG)を提案する。
論文 参考訳(メタデータ) (2024-01-24T06:50:20Z) - Generate rather than Retrieve: Large Language Models are Strong Context
Generators [74.87021992611672]
本稿では,文書検索を大規模言語モデル生成器に置き換えることで,知識集約型タスクを解く新しい視点を提案する。
我々は,提案手法をgenRead (genRead) と呼び,まず大きな言語モデルに対して,与えられた質問に基づいて文脈文書を生成し,次に生成された文書を読み出して最終回答を生成する。
論文 参考訳(メタデータ) (2022-09-21T01:30:59Z) - End-to-end Spoken Conversational Question Answering: Task, Dataset and
Model [92.18621726802726]
音声による質問応答では、システムは関連する音声書き起こしの中に連続したテキストスパンからの質問に答えるように設計されている。
本稿では,複雑な対話フローをモデル化することを目的とした音声対話型質問応答タスク(SCQA)を提案する。
本研究の目的は,音声記録に基づく対話型質問に対処するシステムを構築することであり,情報収集システムによる様々なモダリティからより多くの手がかりを提供する可能性を探ることである。
論文 参考訳(メタデータ) (2022-04-29T17:56:59Z) - An Exploration of Self-Supervised Pretrained Representations for
End-to-End Speech Recognition [98.70304981174748]
本稿では,事前訓練された音声表現の一般応用,高度なエンドツーエンド自動音声認識(E2E-ASR)モデルに焦点をあてる。
いくつかの事前訓練された音声表現を選択し、E2E-ASRのための様々なオープンソースおよび公開コーパスの実験結果を示す。
論文 参考訳(メタデータ) (2021-10-09T15:06:09Z) - Zero-Shot Dialogue State Tracking via Cross-Task Transfer [69.70718906395182]
我々は,ゼロショット対話状態追跡タスクに対して,一般質問応答(QA)コーパスからテキストクロスタスク知識を転送することを提案する。
具体的には,抽出QAと複数選択QAをシームレスに組み合わせた転送可能な生成QAモデルであるTransferQAを提案する。
さらに,否定的質問サンプリングと文脈トランケーションという,解決不可能な質問を構築するための2つの効果的な方法を紹介した。
論文 参考訳(メタデータ) (2021-09-10T03:57:56Z) - Towards Data Distillation for End-to-end Spoken Conversational Question
Answering [65.124088336738]
音声対話型質問応答タスク(SCQA)を提案する。
SCQAは,音声発話とテキストコーパスから複雑な対話の流れをモデル化することを目的としている。
我々の主な目的は、音声とテキストの両方で会話的な質問に対処するQAシステムを構築することである。
論文 参考訳(メタデータ) (2020-10-18T05:53:39Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。