論文の概要: FaVIQ: FAct Verification from Information-seeking Questions
- arxiv url: http://arxiv.org/abs/2107.02153v1
- Date: Mon, 5 Jul 2021 17:31:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 16:24:45.874339
- Title: FaVIQ: FAct Verification from Information-seeking Questions
- Title(参考訳): FaVIQ: 情報検索に関する質問のファクト検証
- Authors: Jungsoo Park, Sewon Min, Jaewoo Kang, Luke Zettlemoyer, Hannaneh
Hajishirzi
- Abstract要約: 実ユーザによる情報探索質問を用いて,ファVIQと呼ばれる大規模事実検証データセットを構築した。
我々の主張は自然であると証明され、語彙バイアスがほとんどなく、検証の証拠を完全に理解する必要がある。
- 参考スコア(独自算出の注目度): 77.7067957445298
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite significant interest in developing general purpose fact checking
models, it is challenging to construct a large-scale fact verification dataset
with realistic claims that would occur in the real world. Existing claims are
either authored by crowdworkers, thereby introducing subtle biases that are
difficult to control for, or manually verified by professional fact checkers,
causing them to be expensive and limited in scale. In this paper, we construct
a challenging, realistic, and large-scale fact verification dataset called
FaVIQ, using information-seeking questions posed by real users who do not know
how to answer. The ambiguity in information-seeking questions enables
automatically constructing true and false claims that reflect confusions arisen
from users (e.g., the year of the movie being filmed vs. being released). Our
claims are verified to be natural, contain little lexical bias, and require a
complete understanding of the evidence for verification. Our experiments show
that the state-of-the-art models are far from solving our new task. Moreover,
training on our data helps in professional fact-checking, outperforming models
trained on the most widely used dataset FEVER or in-domain data by up to 17%
absolute. Altogether, our data will serve as a challenging benchmark for
natural language understanding and support future progress in professional fact
checking.
- Abstract(参考訳): 汎用的な事実チェックモデルの開発には大きな関心があるが、現実の世界で起こりうる現実的な主張を伴う大規模な事実検証データセットを構築することは困難である。
既存のクレームは、クラウドワーカーによって作成され、制御が難しい微妙なバイアスを導入するか、プロのファクトチェッカーによって手作業で検証される。
本稿では,実際の回答方法が不明なユーザによる情報探索質問を用いて,FaVIQと呼ばれる難解で現実的で大規模な事実検証データセットを構築した。
情報参照質問の曖昧さは、ユーザーから生じる混乱(例えば、映画が撮影される年と公開される年)を反映した、真偽の主張を自動的に構築することを可能にする。
我々の主張は自然であると証明され、語彙バイアスがほとんどなく、検証の証拠を完全に理解する必要がある。
我々の実験は、最先端のモデルは我々の新しいタスクを解くには程遠いことを示している。
さらに、私たちのデータに対するトレーニングは、プロのファクトチェックや、最も広く使用されているデータセットFEVERやドメイン内のデータを最大17%までトレーニングしたモデルのパフォーマンス向上に役立ちます。
さらに、私たちのデータは、自然言語理解のための挑戦的なベンチマークとして機能し、プロフェッショナルな事実チェックの今後の進歩をサポートするでしょう。
関連論文リスト
- Contrastive Learning to Improve Retrieval for Real-world Fact Checking [84.57583869042791]
ファクト・チェッキング・リランカ(Contrastive Fact-Checking Reranker, CFR)を提案する。
我々はAVeriTeCデータセットを活用し、証拠文書からの人間による回答とクレームのサブクエストを注釈付けする。
データセットの精度は6%向上した。
論文 参考訳(メタデータ) (2024-10-07T00:09:50Z) - Fact or Fiction? Improving Fact Verification with Knowledge Graphs through Simplified Subgraph Retrievals [0.0]
本稿では, 証拠が構造化知識グラフの形で存在するデータセット上で, クレームを検証するための効率的な方法を提案する。
また,エビデンス検索プロセスの簡略化により,計算資源の削減とテストセット精度の向上を実現するモデルの構築が可能となる。
論文 参考訳(メタデータ) (2024-08-14T10:46:15Z) - How We Refute Claims: Automatic Fact-Checking through Flaw
Identification and Explanation [4.376598435975689]
本稿では、アスペクト生成や欠陥識別を含む、欠陥指向の事実チェックの新たな課題について検討する。
また、このタスク用に特別に設計された新しいフレームワークであるRefuteClaimを紹介します。
既存のデータセットが存在しないことから、専門家のレビューから洞察を抽出して変換して、関連する側面に変換し、欠陥を特定したデータセットであるFlawCheckを紹介します。
論文 参考訳(メタデータ) (2024-01-27T06:06:16Z) - EX-FEVER: A Dataset for Multi-hop Explainable Fact Verification [22.785622371421876]
マルチホップで説明可能な事実検証のための先駆的データセットを提案する。
2ホップと3ホップの推論を含む6万件以上の主張により、それぞれがハイパーリンクされたウィキペディア文書から情報を要約して修正することによって作成される。
提案するEX-FEVERデータセットをベースラインとして,文書検索,説明生成,クレーム検証を行う。
論文 参考訳(メタデータ) (2023-10-15T06:46:15Z) - Mitigating Temporal Misalignment by Discarding Outdated Facts [58.620269228776294]
大規模な言語モデルは、しばしば時間的ミスアライメントの下で使われ、現在に関する質問に答える。
我々は、ある事実がいつまで真実であるかを予測するタスクとして、事実期間予測を提案する。
私たちのデータとコードはhttps://github.com/mikejqzhang/mitigating_misalignment.comで公開されています。
論文 参考訳(メタデータ) (2023-05-24T07:30:08Z) - WiCE: Real-World Entailment for Claims in Wikipedia [63.234352061821625]
We propose WiCE, a new fine-fine textual entailment dataset built on natural claim and evidence pairs from Wikipedia。
標準クレームレベルのエンターメントに加えて、WiCEはクレームのサブ文単位に対するエンターメント判断を提供する。
我々のデータセットの真のクレームは、既存のモデルで対処できない検証と検索の問題に挑戦することを含んでいる。
論文 参考訳(メタデータ) (2023-03-02T17:45:32Z) - Missing Counter-Evidence Renders NLP Fact-Checking Unrealistic for
Misinformation [67.69725605939315]
誤報は、信頼できる情報が限られている不確実な時に現れる。
NLPベースのファクトチェックは、まだ利用できないかもしれない反証拠に依存しているため、これは難しい。
論文 参考訳(メタデータ) (2022-10-25T09:40:48Z) - Generating Literal and Implied Subquestions to Fact-check Complex Claims [64.81832149826035]
我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
論文 参考訳(メタデータ) (2022-05-14T00:40:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。