論文の概要: Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions
- arxiv url: http://arxiv.org/abs/2308.08661v1
- Date: Wed, 16 Aug 2023 20:23:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 18:45:11.384242
- Title: Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions
- Title(参考訳): 質問・回答・修正のデータベースによる曖昧な質問への回答
- Authors: Haitian Sun, William W. Cohen, Ruslan Salakhutdinov
- Abstract要約: ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
- 参考スコア(独自算出の注目度): 95.92276099234344
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Many open-domain questions are under-specified and thus have multiple
possible answers, each of which is correct under a different interpretation of
the question. Answering such ambiguous questions is challenging, as it requires
retrieving and then reasoning about diverse information from multiple passages.
We present a new state-of-the-art for answering ambiguous questions that
exploits a database of unambiguous questions generated from Wikipedia. On the
challenging ASQA benchmark, which requires generating long-form answers that
summarize the multiple answers to an ambiguous question, our method improves
performance by 15% (relative improvement) on recall measures and 10% on
measures which evaluate disambiguating questions from predicted outputs.
Retrieving from the database of generated questions also gives large
improvements in diverse passage retrieval (by matching user questions q to
passages p indirectly, via questions q' generated from p).
- Abstract(参考訳): 多くのオープンドメインの質問は不特定であり、それゆえ複数の答えがあり、それぞれが異なる解釈の下で正しい。
このような曖昧な疑問に答えるには、複数の通路から多様な情報を検索し、推論する必要があるため、難しい。
我々は,wikipediaから生成された不明瞭な質問のデータベースを活用した,曖昧な質問に答える新たな最新技術を提案する。
難解なasqaベンチマークでは,複数の回答をあいまいな質問に要約する長文の回答を生成する必要があるが,本手法では,リコール対策では15%(相対的改善),予測結果から曖昧な質問を評価する尺度では10%改善する。
生成された質問のデータベースから取得することで、多様なパスの検索に大きな改善がもたらされる(ユーザ質問qと間接的に、pから生成された質問q'を介して)。
関連論文リスト
- Detecting Temporal Ambiguity in Questions [16.434748534272014]
時間的に曖昧な質問は、そのような質問の最も一般的なタイプの1つである。
本アノテーションは,時間的あいまいさを捉え,時間的あいまいな質問を検出するタスクを研究することに焦点を当てている。
本稿では,質問の曖昧なバージョンに基づく多様な検索戦略を用いて,新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-25T15:59:58Z) - Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Answering Unanswered Questions through Semantic Reformulations in Spoken
QA [20.216161323866867]
Spoken Question Answering (QA) は音声アシスタントの重要な機能であり、通常は複数のQAシステムによって支援される。
我々は失敗したQA要求を分析し、語彙的ギャップ、命題型、複雑な構文構造、高い特異性など、主要な課題を特定する。
本稿では,3つの言語的操作(リペア,構文的再構成,一般化)による質問の書き直しと回答を容易にするセマンティック質問修正(SURF)モデルを提案する。
論文 参考訳(メタデータ) (2023-05-27T07:19:27Z) - Asking Clarification Questions to Handle Ambiguity in Open-Domain QA [25.80369529145732]
本稿では,ユーザの反応がユーザの意図に最も合致する解釈を識別する上で有効であることを示す。
最初に,5,654の曖昧な質問からなるデータセットであるCAMBIGNQを提示する。
次にタスクのパイプラインを定義し、適切な評価指標を設計します。
論文 参考訳(メタデータ) (2023-05-23T08:20:01Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - QAMPARI: An Open-domain Question Answering Benchmark for Questions with
Many Answers from Multiple Paragraphs [42.843866049949206]
本稿では,質問応答がエンティティのリストであるODQAベンチマークであるQAMPARIを紹介する。
我々は、(a)ウィキペディアの知識グラフと表から複数の回答で質問を生成することによりQAMPARIを作成し、(b)ウィキペディアの段落で裏付ける証拠と自動的に回答をペアリングし、(c)質問を手動で言い換え、各回答を検証することで、QAMPARIを作成する。
我々は、検索・読解系からODQAモデルを訓練し、QAMPARIは経路検索と解答生成の両方の観点から困難であり、F1スコアが32.8に達することを発見した。
論文 参考訳(メタデータ) (2022-05-25T11:21:30Z) - Discourse Comprehension: A Question Answering Framework to Represent
Sentence Connections [35.005593397252746]
談話理解のためのモデルの構築と評価における重要な課題は、注釈付きデータの欠如である。
本稿では,ニュース文書の理解を目的としたスケーラブルなデータ収集を実現する新しいパラダイムを提案する。
得られたコーパスDCQAは、607の英語文書からなる22,430の質問応答ペアで構成されている。
論文 参考訳(メタデータ) (2021-11-01T04:50:26Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - Unsupervised Question Decomposition for Question Answering [102.56966847404287]
本論文では, ワンツーNアン教師付きシーケンスシーケンス(ONUS)のアルゴリズムを提案する。
当初,ドメイン外,マルチホップ開発セットのベースラインが強かったため,HotpotQAでは大きなQA改善が見られた。
論文 参考訳(メタデータ) (2020-02-22T19:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。