論文の概要: Answering Unanswered Questions through Semantic Reformulations in Spoken
QA
- arxiv url: http://arxiv.org/abs/2305.17393v2
- Date: Sat, 3 Jun 2023 05:40:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 00:42:16.535816
- Title: Answering Unanswered Questions through Semantic Reformulations in Spoken
QA
- Title(参考訳): 音声QAにおける意味改革による未回答質問への回答
- Authors: Pedro Faustini, Zhiyu Chen, Besnik Fetahu, Oleg Rokhlenko and Shervin
Malmasi
- Abstract要約: Spoken Question Answering (QA) は音声アシスタントの重要な機能であり、通常は複数のQAシステムによって支援される。
我々は失敗したQA要求を分析し、語彙的ギャップ、命題型、複雑な構文構造、高い特異性など、主要な課題を特定する。
本稿では,3つの言語的操作(リペア,構文的再構成,一般化)による質問の書き直しと回答を容易にするセマンティック質問修正(SURF)モデルを提案する。
- 参考スコア(独自算出の注目度): 20.216161323866867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spoken Question Answering (QA) is a key feature of voice assistants, usually
backed by multiple QA systems. Users ask questions via spontaneous speech which
can contain disfluencies, errors, and informal syntax or phrasing. This is a
major challenge in QA, causing unanswered questions or irrelevant answers, and
leading to bad user experiences. We analyze failed QA requests to identify core
challenges: lexical gaps, proposition types, complex syntactic structure, and
high specificity. We propose a Semantic Question Reformulation (SURF) model
offering three linguistically-grounded operations (repair, syntactic reshaping,
generalization) to rewrite questions to facilitate answering. Offline
evaluation on 1M unanswered questions from a leading voice assistant shows that
SURF significantly improves answer rates: up to 24% of previously unanswered
questions obtain relevant answers (75%). Live deployment shows positive impact
for millions of customers with unanswered questions; explicit relevance
feedback shows high user satisfaction.
- Abstract(参考訳): Spoken Question Answering (QA) は音声アシスタントの重要な機能であり、通常は複数のQAシステムによって支援される。
ユーザは、流儀、エラー、非公式な構文やフレーズを含む自発的な音声で質問する。
これはQAにおける大きな課題であり、答えのない質問や無関係な回答を引き起こし、ユーザエクスペリエンスを悪化させます。
我々は失敗したQA要求を分析し、語彙的ギャップ、命題型、複雑な構文構造、高い特異性など、主要な課題を特定する。
本稿では,3つの言語的操作(リペア,構文的再構成,一般化)による質問の書き直しと回答を容易にするセマンティック質問修正(SURF)モデルを提案する。
音声アシスタントによる100万件の未回答質問に対するオフライン評価では、SURFは回答率を大幅に改善し、未回答質問の最大24%が関連回答(75%)を得た。
ライブデプロイメントは、答えのない疑問を持つ数百万の顧客に対して肯定的な影響を示す。
関連論文リスト
- Gotcha! Don't trick me with unanswerable questions! Self-aligning Large
Language Models for Responding to Unknown Questions [75.78536317322616]
自己調整法は,回答を拒否するだけでなく,未知の質問の解答不能を説明できる。
我々は, LLM自体を微調整し, 未知の質問に対する応答を所望の通りに調整するために, 偏差駆動による自己計算を行い, 有資格データを選択する。
論文 参考訳(メタデータ) (2024-02-23T02:24:36Z) - Estimating the Usefulness of Clarifying Questions and Answers for
Conversational Search [17.0363715044341]
本稿では,質問を明確化するための回答処理手法を提案する。
具体的には,利用者が提示した質問と回答の提示による有用性を評価するための分類器を提案する。
その結果, 強い非混合開始基線よりも顕著な改善が認められた。
論文 参考訳(メタデータ) (2024-01-21T11:04:30Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - HeySQuAD: A Spoken Question Answering Dataset [2.3881849082514153]
本研究では,HeySQuADと呼ばれる大規模コミュニティ共有SQAデータセットを提案する。
我々の目標は、機械が雑音の多い質問を正確に理解し、信頼できる回答を提供する能力を測定することである。
論文 参考訳(メタデータ) (2023-04-26T17:15:39Z) - Improving the Question Answering Quality using Answer Candidate
Filtering based on Natural-Language Features [117.44028458220427]
本稿では,質問応答(QA)の品質をいかに改善できるかという課題に対処する。
私たちの主な貢献は、QAシステムが提供する間違った回答を識別できるアプローチです。
特に,提案手法は誤答の大部分を除去しつつ,その可能性を示した。
論文 参考訳(メタデータ) (2021-12-10T11:09:44Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - NoiseQA: Challenge Set Evaluation for User-Centric Question Answering [68.67783808426292]
応答エンジンに先立つパイプライン内のコンポーネントが,多種多様なエラーの原因を発生させることができることを示す。
我々は、QAシステムが効果的にデプロイされる前に、進歩の余地がかなりあると結論付けている。
論文 参考訳(メタデータ) (2021-02-16T18:35:29Z) - Review-guided Helpful Answer Identification in E-commerce [38.276241153439955]
製品固有のコミュニティ質問応答プラットフォームは、潜在的な顧客の懸念に対処するのに大いに役立ちます。
このようなプラットフォーム上でユーザが提供する回答は、その品質に大きく違いがあります。
コミュニティからのヘルプフルネスの投票は、回答の全体的な品質を示すことができるが、しばしば欠落している。
論文 参考訳(メタデータ) (2020-03-13T11:34:29Z) - Unsupervised Question Decomposition for Question Answering [102.56966847404287]
本論文では, ワンツーNアン教師付きシーケンスシーケンス(ONUS)のアルゴリズムを提案する。
当初,ドメイン外,マルチホップ開発セットのベースラインが強かったため,HotpotQAでは大きなQA改善が見られた。
論文 参考訳(メタデータ) (2020-02-22T19:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。