論文の概要: Is Sluice Resolution really just Question Answering?
- arxiv url: http://arxiv.org/abs/2105.14347v1
- Date: Sat, 29 May 2021 17:51:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:49:40.153315
- Title: Is Sluice Resolution really just Question Answering?
- Title(参考訳): Sluice Resolutionは本当に単なる質問回答なのか?
- Authors: Peratham Wiriyathammabhum
- Abstract要約: 溶解分解能は、システムが対応するワレリプスの先行成分を出力する必要がある問題である。
問題の解答と誤りのギャップを埋めるために,スライス解決法の違いについて検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Sluice resolution is a problem where a system needs to output the
corresponding antecedents of wh-ellipses. The antecedents are elided contents
behind the wh-words but are implicitly referred to using contexts. Previous
work frames sluice resolution as question answering where this setting
outperforms all its preceding works by large margins. Ellipsis and questions
are referentially dependent expressions (anaphoras) and retrieving the
corresponding antecedents are like answering questions to output pieces of
clarifying information. However, the task is not fully solved. Therefore, we
want to further investigate what makes sluice resolution differ to question
answering and fill in the error gaps. We also present some results using recent
state-of-the-art question answering systems which improve the previous work
(86.01 to 90.39 F1).
- Abstract(参考訳): 溶解分解能は、システムが対応するワレリプスの先行成分を出力する必要がある問題である。
先行語はwhワードの背後に隠れた内容であるが、暗黙的に文脈を使って言及される。
以前のワークフレームでは、この設定が前のすべてのワークを大きなマージンで上回る質問応答として、解像度が低下している。
エリプシと質問は参照依存表現(アナフォラ)であり、対応する先行者が質問に答えて明確な情報を出力するようなものだ。
しかし、そのタスクは完全には解決されていない。
そこで我々は,スライス解決法の違いを疑問視し,誤差のギャップを埋めるために,さらに検討する。
また,従来の作業(86.01から90.39 F1)を改善する最新の質問応答システムを用いて,いくつかの結果を示す。
関連論文リスト
- Open Domain Question Answering with Conflicting Contexts [55.739842087655774]
あいまいでオープンなドメインの質問の25%は、Google Searchを使って検索すると、コンフリクトのあるコンテキストにつながります。
我々はアノテータに正しい回答の選択についての説明を依頼する。
論文 参考訳(メタデータ) (2024-10-16T07:24:28Z) - Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Concise Answers to Complex Questions: Summarization of Long-form Answers [27.190319030219285]
我々は,最先端モデルから生成された要約された回答と,新たに提案した抽出・デコンテクライズ手法について,ユーザスタディを行った。
複雑で暗黙的な解答は圧縮が困難であるのに対し、少なくとも1つのシステムによって、大量の長文解答を適切に要約できることがわかった。
要約作業において,非コンテクスト化によって抽出された要約の質が向上し,その可能性を実証する。
論文 参考訳(メタデータ) (2023-05-30T17:59:33Z) - Selectively Answering Ambiguous Questions [38.83930394700588]
我々は, サンプルモデル出力における繰り返しの定量化が, 退避時期を決定する最も信頼性の高い手法であることが判明した。
その結果,サンプリングに基づく信頼度スコアは,比較的あいまいな質問に対する回答のキャリブレーションに有効であることが示唆された。
論文 参考訳(メタデータ) (2023-05-24T01:25:38Z) - Asking Clarification Questions to Handle Ambiguity in Open-Domain QA [25.80369529145732]
本稿では,ユーザの反応がユーザの意図に最も合致する解釈を識別する上で有効であることを示す。
最初に,5,654の曖昧な質問からなるデータセットであるCAMBIGNQを提示する。
次にタスクのパイプラインを定義し、適切な評価指標を設計します。
論文 参考訳(メタデータ) (2023-05-23T08:20:01Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - Measuring and Narrowing the Compositionality Gap in Language Models [116.5228850227024]
モデルがすべてのサブプロブレムに正しく答えられる頻度を計測するが、全体の解は生成しない。
我々は,思考の連鎖をさらに改善する新たな手法である自己認識法を提案する。
論文 参考訳(メタデータ) (2022-10-07T06:50:23Z) - A Mutual Information Maximization Approach for the Spurious Solution
Problem in Weakly Supervised Question Answering [60.768146126094955]
弱々しい教師付き質問応答は通常、最終的な答えのみを監督信号として持つ。
偶然に正解を導出する刺激的な解が多数存在するかもしれないが、そのような解の訓練はモデルの性能を損なう可能性がある。
本稿では,質問応答対と予測解間の相互情報の最大化により,このような意味的相関を明示的に活用することを提案する。
論文 参考訳(メタデータ) (2021-06-14T05:47:41Z) - Check It Again: Progressive Visual Question Answering via Visual
Entailment [12.065178204539693]
Visual Entailmentに基づいたSAR(Select-and-Rerank)プログレッシブフレームワークを提案する。
まず、質問や画像に関連する候補の答えを選択し、その候補の答えを視覚的細分化タスクで並べ替える。
実験の結果,VQA-CP v2の精度が7.55%向上した。
論文 参考訳(メタデータ) (2021-06-08T18:00:38Z) - Answering Ambiguous Questions through Generative Evidence Fusion and
Round-Trip Prediction [46.38201136570501]
本稿では,複数の通路からの証拠を集約し,一つの回答や質問対の集合を適応的に予測するモデルを提案する。
我々のモデルはRefuelと呼ばれ、AmbigQAデータセット上で新しい最先端のパフォーマンスを実現し、NQ-OpenおよびTriviaQA上での競合性能を示す。
論文 参考訳(メタデータ) (2020-11-26T05:48:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。