論文の概要: Which Linguist Invented the Lightbulb? Presupposition Verification for
Question-Answering
- arxiv url: http://arxiv.org/abs/2101.00391v1
- Date: Sat, 2 Jan 2021 07:26:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 07:19:23.119235
- Title: Which Linguist Invented the Lightbulb? Presupposition Verification for
Question-Answering
- Title(参考訳): どの言語学者が電球を発明したのか?
質問応答の前提検証
- Authors: Najoung Kim, Ellie Pavlick, Burcu Karagol Ayan, Deepak Ramachandran
- Abstract要約: 不可解な質問は、検証不能な前置詞の存在に基づいて説明できる。
本稿では,前提生成,前提検証,説明生成という3つのステップに分けた新しい枠組みを提案する。
既存のモデルに前提条件と検証可能性を加えると、下流のパフォーマンスとアンサーバーサビリティ検出が緩やかに向上することがわかった。
- 参考スコア(独自算出の注目度): 13.50388629020283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many Question-Answering (QA) datasets contain unanswerable questions, but
their treatment in QA systems remains primitive. Our analysis of the Natural
Questions (Kwiatkowski et al. 2019) dataset reveals that a substantial portion
of unanswerable questions ($\sim$21%) can be explained based on the presence of
unverifiable presuppositions. We discuss the shortcomings of current models in
handling such questions, and describe how an improved system could handle them.
Through a user preference study, we demonstrate that the oracle behavior of our
proposed system that provides responses based on presupposition failure is
preferred over the oracle behavior of existing QA systems. Then we discuss how
our proposed system could be implemented, presenting a novel framework that
breaks down the problem into three steps: presupposition generation,
presupposition verification and explanation generation. We report our progress
in tackling each subproblem, and present a preliminary approach to integrating
these steps into an existing QA system. We find that adding presuppositions and
their verifiability to an existing model yields modest gains in downstream
performance and unanswerability detection. The biggest bottleneck is the
verification component, which needs to be substantially improved for the
integrated system to approach ideal behavior -- even transfer from the best
entailment models currently falls short.
- Abstract(参考訳): 多くのQAデータセットには解決不可能な質問が含まれているが、QAシステムでの扱いは原始的である。
自然問題(kwiatkowski et al.)の分析を行った。
2019年)データセットによると、未解決の質問のかなりの部分($21%)は、検証不可能な前提の存在に基づいて説明できる。
このような質問に対する現在のモデルの欠点を考察し,その対処方法について述べる。
ユーザの選好調査を通じて,既存のqaシステムのoracleの動作よりも,前提条件の失敗に基づく応答を提供する提案システムのoracleの動作が望ましいことを実証する。
次に,提案システムの実装方法について検討し,前提生成,前提検証,説明生成という3つのステップに分けた新しい枠組みを提案する。
本稿では,各サブプロブレムへの取り組みの進捗状況を報告するとともに,これらのステップを既存のQAシステムに統合するための予備的アプローチを提案する。
既存のモデルに前提条件と検証可能性を加えると、下流のパフォーマンスとアンサーバーサビリティ検出が緩やかに向上することがわかった。
最大のボトルネックは検証コンポーネントである。このコンポーネントは、理想的な振る舞いにアプローチするために、統合システムのために大幅に改善される必要がある。
関連論文リスト
- Uncertainty-aware Language Modeling for Selective Question Answering [107.47864420630923]
本稿では,不確実性を考慮したLLMを生成するLLM変換手法を提案する。
我々のアプローチはモデルとデータに依存しず、計算効率が高く、外部モデルやシステムに依存しない。
論文 参考訳(メタデータ) (2023-11-26T22:47:54Z) - UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - Evaluation of Question Answering Systems: Complexity of judging a
natural language [3.4771957347698583]
質問応答システム(QA)は、自然言語処理(NLP)において最も重要かつ急速に発展している研究課題の一つである。
本調査では,QAの枠組み,QAパラダイム,ベンチマークデータセット,およびQAシステムの定量的評価のための評価手法の体系的概要について述べる。
論文 参考訳(メタデータ) (2022-09-10T12:29:04Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - Will this Question be Answered? Question Filtering via Answer Model
Distillation for Efficient Question Answering [99.66470885217623]
本稿では,質問回答システム(QA)の効率向上に向けた新しいアプローチを提案する。
最新のQAシステムの回答信頼性スコアは、入力された質問テキストのみを使用してモデルによってうまく近似することができる。
論文 参考訳(メタデータ) (2021-09-14T23:07:49Z) - Answering Ambiguous Questions through Generative Evidence Fusion and
Round-Trip Prediction [46.38201136570501]
本稿では,複数の通路からの証拠を集約し,一つの回答や質問対の集合を適応的に予測するモデルを提案する。
我々のモデルはRefuelと呼ばれ、AmbigQAデータセット上で新しい最先端のパフォーマンスを実現し、NQ-OpenおよびTriviaQA上での競合性能を示す。
論文 参考訳(メタデータ) (2020-11-26T05:48:55Z) - Summary-Oriented Question Generation for Informational Queries [23.72999724312676]
主文書のトピックに焦点をあてた自己説明的質問を,適切な長さのパスで答えられるようにすることを目的としている。
本モデルでは,NQデータセット(20.1BLEU-4)上でのSQ生成のSOTA性能を示す。
我々はさらに,本モデルをドメイン外のニュース記事に適用し,ゴールド質問の欠如によるQAシステムによる評価を行い,私たちのモデルがニュース記事に対してより良いSQを生成することを実証し,人間による評価によるさらなる確認を行う。
論文 参考訳(メタデータ) (2020-10-19T17:30:08Z) - ClarQ: A large-scale and diverse dataset for Clarification Question
Generation [67.1162903046619]
そこで我々は,スタックエクスチェンジから抽出したポストコメンデーションに基づいて,多様な,大規模な明確化質問データセットの作成を支援する,新しいブートストラップフレームワークを考案した。
質問応答の下流タスクに適用することで,新たに作成したデータセットの有用性を定量的に示す。
我々はこのデータセットを公開し、ダイアログと質問応答システムの拡張という大きな目標を掲げて、質問生成の分野の研究を促進する。
論文 参考訳(メタデータ) (2020-06-10T17:56:50Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。