論文の概要: Sound Natural: Content Rephrasing in Dialog Systems
- arxiv url: http://arxiv.org/abs/2011.01993v1
- Date: Tue, 3 Nov 2020 20:15:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 03:49:28.858399
- Title: Sound Natural: Content Rephrasing in Dialog Systems
- Title(参考訳): 音声自然:対話システムにおける内容表現
- Authors: Arash Einolghozati, Anchit Gupta, Keith Diedrick, Sonal Gupta
- Abstract要約: ユースケースとしてメッセージによるリフレージングの問題について検討し、3000対のオリジナルクエリとリフレージングクエリのデータセットをリリースする。
自動回帰デコーディングを備えた事前学習型トランスフォーマーに基づくマスク付き言語モデルであるBARTが,このタスクの強力なベースラインであることを示す。
本稿では, BART と LSTM をベースとした Seq2seq モデルのトレードオフを分析し, 蒸留した LSTM をベースとした seq2seq を最適実用モデルとして提案する。
- 参考スコア(独自算出の注目度): 18.153144806660496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a new task of rephrasing for a more natural virtual assistant.
Currently, virtual assistants work in the paradigm of intent slot tagging and
the slot values are directly passed as-is to the execution engine. However,
this setup fails in some scenarios such as messaging when the query given by
the user needs to be changed before repeating it or sending it to another user.
For example, for queries like 'ask my wife if she can pick up the kids' or
'remind me to take my pills', we need to rephrase the content to 'can you pick
up the kids' and 'take your pills' In this paper, we study the problem of
rephrasing with messaging as a use case and release a dataset of 3000 pairs of
original query and rephrased query. We show that BART, a pre-trained
transformers-based masked language model with auto-regressive decoding, is a
strong baseline for the task, and show improvements by adding a copy-pointer
and copy loss to it. We analyze different tradeoffs of BART-based and
LSTM-based seq2seq models, and propose a distilled LSTM-based seq2seq as the
best practical model.
- Abstract(参考訳): より自然な仮想アシスタントのためのリフレージングという新しいタスクを導入する。
現在、仮想アシスタントはインテントスロットタグのパラダイムで動作しており、スロット値は実行エンジンに直接渡される。
しかし、この設定は、繰り返したり、他のユーザに送信する前に、ユーザが与えたクエリを変更する必要がある場合のメッセージングのような、いくつかのシナリオでは失敗する。
例えば、「子どもを拾えるかどうか妻に尋ねる」や「薬を飲ませる」といった質問では、「子供たちを拾えるか」や「薬を取るか」といった内容の言い換えが必要であり、この論文では、メッセージングをユースケースとして言い換えることの問題を考察し、3000対のオリジナルクエリと言い換えたクエリのデータセットをリリースする。
自動回帰デコーディングを備えた事前学習型トランスフォーマーに基づくマスク付き言語モデルであるBARTは,タスクの強力なベースラインであり,コピーポインターの追加とコピー損失による改善を示す。
バルト系およびlstm系seq2seqモデルの異なるトレードオフを分析し,最適な実用モデルとして蒸留lstm系seq2seqを提案する。
関連論文リスト
- MaFeRw: Query Rewriting with Multi-Aspect Feedbacks for Retrieval-Augmented Large Language Models [34.39053202801489]
現実世界のRAGシステムでは、現在のクエリは会話コンテキストからの音声楕円とあいまいな参照を含むことが多い。
本稿では,検索プロセスと生成結果の両方からマルチアスペクトフィードバックを統合することにより,RAG性能を向上させる新しいクエリ書き換え手法MaFeRwを提案する。
2つの対話型RAGデータセットの実験結果から、MaFeRwはベースラインよりも優れた生成指標と安定したトレーニングを達成できることが示された。
論文 参考訳(メタデータ) (2024-08-30T07:57:30Z) - Adaptive Query Rewriting: Aligning Rewriters through Marginal Probability of Conversational Answers [66.55612528039894]
AdaQRは、シードデータセットからの限定的な書き直しアノテーションと完全にパスラベルのないクエリ書き換えモデルをトレーニングするフレームワークである。
会話クエリに条件付き回答の確率を用いて,これらの候補に対する検索者の嗜好を評価する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-16T16:09:05Z) - Understanding Inter-Session Intentions via Complex Logical Reasoning [50.199811535229045]
論理セッション複雑質問応答(LS-CQA)の課題について述べる。
セッション,項目,属性を集約したハイパーグラフ上で,LS-CQAタスクとして複雑な意図理解の問題をモデル化する。
新たなモデルであるLSGT(Logical Session Graph Transformer)を導入し,各セッション間のインタラクションとその論理的接続をキャプチャする。
論文 参考訳(メタデータ) (2023-12-21T14:03:30Z) - SSP: Self-Supervised Post-training for Conversational Search [63.28684982954115]
本稿では,対話型検索モデルを効率的に初期化するための3つの自己教師型タスクを備えた学習後パラダイムであるフルモデル(モデル)を提案する。
提案手法の有効性を検証するために,CAsT-19 と CAsT-20 の2つのベンチマークデータセットを用いて,会話検索タスクにモデルにより訓練後の会話エンコーダを適用した。
論文 参考訳(メタデータ) (2023-07-02T13:36:36Z) - Phrase Retrieval for Open-Domain Conversational Question Answering with
Conversational Dependency Modeling via Contrastive Learning [54.55643652781891]
Open-Domain Conversational Question Answering (ODConvQA)は、マルチターン会話を通じて質問に答えることを目的としている。
そこで本研究では,単語列に対する句検索方式を用いて,回答を直接予測する手法を提案する。
論文 参考訳(メタデータ) (2023-06-07T09:46:38Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z) - McQueen: a Benchmark for Multimodal Conversational Query Rewrite [31.557542702863948]
本稿では,マルチモーダルな視覚的会話設定の下でクエリリライトを行うマルチモーダルな会話クエリリライト(McQR)の課題を提案する。
手動のアノテーションに基づいて、McQueenという名の大規模なデータセットを収集します。
我々は、ポインタジェネレータを用いたマルチモーダル事前学習モデルに基づいて、McQRタスクを効果的に処理するための最先端手法をベンチマークする。
論文 参考訳(メタデータ) (2022-10-23T16:32:33Z) - Topic Transferable Table Question Answering [33.54533181098762]
弱教師付きテーブル質問回答(TableQA)モデルは、事前学習されたBERT変換器を用いて質問とテーブルを共同で符号化し、質問のための構造化クエリを生成することにより、最先端のパフォーマンスを実現している。
実用的な設定では、TableQA システムは BERT の事前学習コーパスとは全く異なるトピックと単語の分布を持つテーブルコーパス上に展開される。
我々はT3QA(Topic Transferable Table Question Answering)をTableQAの実用的な適応フレームワークとして提案する。
論文 参考訳(メタデータ) (2021-09-15T15:34:39Z) - User-Initiated Repetition-Based Recovery in Multi-Utterance Dialogue
Systems [3.20350998499235]
本稿では,誤解された単語を繰り返すことで,仮想アシスタントの音声認識誤りを補正するシステムを提案する。
ユーザがフレーズの一部を繰り返すと、システムは元のクエリを書き換えて修正を組み込む。
元のクエリを書き直すことは、繰り返しベースのリカバリを扱う効果的な方法であることを示す。
論文 参考訳(メタデータ) (2021-08-02T23:32:13Z) - SOLOIST: Building Task Bots at Scale with Transfer Learning and Machine
Teaching [81.45928589522032]
トランスフォーマーに基づく自動回帰言語モデルを用いて,モジュール型タスク指向対話システムをパラメータ化する。
タスクグラウンド応答生成モデルである異種ダイアログコーパスの事前学習を行う。
実験により、SOLOISTは、よく研究されたタスク指向のダイアログベンチマーク上で、新しい最先端のダイアログを生成する。
論文 参考訳(メタデータ) (2020-05-11T17:58:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。