論文の概要: Joint Verification and Reranking for Open Fact Checking Over Tables
- arxiv url: http://arxiv.org/abs/2012.15115v1
- Date: Wed, 30 Dec 2020 11:22:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 06:08:00.879682
- Title: Joint Verification and Reranking for Open Fact Checking Over Tables
- Title(参考訳): テーブル上のオープンファクトチェックのための共同検証とリランク
- Authors: Michael Schlichtkrull, Vladimir Karpukhin, Barlas O\u{g}uz, Mike
Lewis, Wen-tau Yih, Sebastian Riedel
- Abstract要約: 検証コンポーネントにエビデンス文書を融合する共同再ランク付け・検証モデルを提案する。
当社のオープンドメインモデルは、TabFactデータセットのクローズドドメイン状態と同等のパフォーマンスを実現します。
- 参考スコア(独自算出の注目度): 34.15220268266542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structured information is an important knowledge source for automatic
verification of factual claims. Nevertheless, the majority of existing research
into this task has focused on textual data, and the few recent inquiries into
structured data have been for the closed-domain setting where appropriate
evidence for each claim is assumed to have already been retrieved. In this
paper, we investigate verification over structured data in the open-domain
setting, introducing a joint reranking-and-verification model which fuses
evidence documents in the verification component. Our open-domain model
achieves performance comparable to the closed-domain state-of-the-art on the
TabFact dataset, and demonstrates performance gains from the inclusion of
multiple tables as well as a significant improvement over a heuristic retrieval
baseline.
- Abstract(参考訳): 構造化情報は事実クレームの自動検証のための重要な知識源である。
しかし,本研究の大部分はテキストデータに重点を置いており,近年では各クレームに対する適切な証拠が既に回収されていると推定されるクローズド・ドメイン・セッティングに関する調査も行われている。
本稿では,オープンドメイン設定における構造化データに対する検証について検討し,検証コンポーネント内の証拠文書を融合する検証モデルを導入する。
我々のオープンドメインモデルは、TabFactデータセットのクローズドドメイン状態に匹敵するパフォーマンスを実現し、複数のテーブルを含めることによるパフォーマンス向上と、ヒューリスティックな検索ベースラインに対する大幅な改善を示す。
関連論文リスト
- Document-Level Relation Extraction with Sentences Importance Estimation
and Focusing [52.069206266557266]
文書レベルの関係抽出(DocRE)は、複数の文の文書から2つのエンティティ間の関係を決定することを目的としている。
我々はDocREのための文重要度スコアと文集中損失を設計するSIEF(Sentence Estimation and Focusing)フレームワークを提案する。
2つのドメインの実験結果から、SIEFは全体的なパフォーマンスを改善するだけでなく、DocREモデルをより堅牢にします。
論文 参考訳(メタデータ) (2022-04-27T03:20:07Z) - Does Recommend-Revise Produce Reliable Annotations? An Analysis on
Missing Instances in DocRED [60.39125850987604]
テキスト修正方式は, 偽陰性サンプルと, 人気エンティティや関係性に対する明らかな偏見をもたらすことを示す。
より信頼性の高いドキュメントREモデルのテストセットとして機能するように、relabeledデータセットがリリースされている。
論文 参考訳(メタデータ) (2022-04-17T11:29:01Z) - Challenges for Open-domain Targeted Sentiment Analysis [21.61943346030794]
そこで本研究では、6,013個の人間ラベル付きデータからなる新しいデータセットを提案する。
また、文書中の完全な感情情報を抽出するためのネストされたターゲットアノテーションスキーマも提供します。
論文 参考訳(メタデータ) (2022-04-14T11:44:02Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z) - Augmenting Document Representations for Dense Retrieval with
Interpolation and Perturbation [49.940525611640346]
ドキュメント拡張(Document Augmentation for dense Retrieval)フレームワークは、ドキュメントの表現をDense Augmentationとperturbationsで強化する。
2つのベンチマークデータセットによる検索タスクにおけるDARの性能評価を行い、ラベル付き文書とラベルなし文書の密集検索において、提案したDARが関連するベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-03-15T09:07:38Z) - CODER: An efficient framework for improving retrieval through
COntextualized Document Embedding Reranking [11.635294568328625]
本稿では,最小計算コストで広範囲の検索モデルの性能を向上させるためのフレームワークを提案する。
ベース密度検索法により抽出された事前計算された文書表現を利用する。
実行時に第一段階のメソッドの上に無視可能な計算オーバーヘッドを発生させ、最先端の高密度検索手法と簡単に組み合わせられるようにする。
論文 参考訳(メタデータ) (2021-12-16T10:25:26Z) - FEVEROUS: Fact Extraction and VERification Over Unstructured and
Structured information [21.644199631998482]
我々は、87,026の検証済みクレームからなる新しいデータセットとベンチマーク、Fact extract and VERification Over Unstructured and Structured Information (FEVEROUS)を導入する。
それぞれのクレームには、ウィキペディアの表の文やセルの形での証拠と、この証拠が評決に達するのに十分な情報を提供していないかどうかを示すラベルが添付されている。
本研究は, 請求書の正しい証拠と18%の判定の両方を予測できる, テキストや表に対する請求を検証するためのベースラインを開発する。
論文 参考訳(メタデータ) (2021-06-10T12:47:36Z) - Evidence-based Verification for Real World Information Needs [54.86596226139524]
クレーム検証は、証拠に対する文書の妥当性を予測するタスクである。
本稿では,検索エンジンクエリからインスタンスを抽出した新しいクレーム検証データセットを提案する。
各請求について、我々はセクションと文レベルの粒度の両方で完全なウィキペディアの記事から証拠を注釈します。
論文 参考訳(メタデータ) (2021-04-01T17:40:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。