論文の概要: IMCI: Integrate Multi-view Contextual Information for Fact Extraction
and Verification
- arxiv url: http://arxiv.org/abs/2208.14001v1
- Date: Tue, 30 Aug 2022 05:57:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 12:56:25.869706
- Title: IMCI: Integrate Multi-view Contextual Information for Fact Extraction
and Verification
- Title(参考訳): imci: ファクト抽出と検証のためのマルチビューコンテキスト情報の統合
- Authors: Hao Wang, Yangguang Li, Zhen Huang, Yong Dou
- Abstract要約: 我々は,事実抽出と検証のために,多視点文脈情報(IMCI)を統合することを提案する。
FEVER 1.0共有タスクの実験結果から,IMCIフレームワークは事実抽出と検証の両面で大きな進歩を示している。
- 参考スコア(独自算出の注目度): 19.764122035213067
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: With the rapid development of automatic fake news detection technology, fact
extraction and verification (FEVER) has been attracting more attention. The
task aims to extract the most related fact evidences from millions of
open-domain Wikipedia documents and then verify the credibility of
corresponding claims. Although several strong models have been proposed for the
task and they have made great progress, we argue that they fail to utilize
multi-view contextual information and thus cannot obtain better performance. In
this paper, we propose to integrate multi-view contextual information (IMCI)
for fact extraction and verification. For each evidence sentence, we define two
kinds of context, i.e. intra-document context and inter-document context}.
Intra-document context consists of the document title and all the other
sentences from the same document. Inter-document context consists of all other
evidences which may come from different documents. Then we integrate the
multi-view contextual information to encode the evidence sentences to handle
the task. Our experimental results on FEVER 1.0 shared task show that our IMCI
framework makes great progress on both fact extraction and verification, and
achieves state-of-the-art performance with a winning FEVER score of 72.97% and
label accuracy of 75.84% on the online blind test set. We also conduct ablation
study to detect the impact of multi-view contextual information. Our codes will
be released at https://github.com/phoenixsecularbird/IMCI.
- Abstract(参考訳): 自動フェイクニュース検出技術の急速な発展に伴い、事実抽出と検証(fever)が注目を集めている。
このタスクは、数百万のオープンドメインwikipedia文書から最も関連する事実証拠を抽出し、対応するクレームの信頼性を検証することを目的としている。
タスクにはいくつかの強力なモデルが提案されており、大きな進歩を遂げているが、マルチビューのコンテキスト情報を使用しないため、パフォーマンスが向上しないと主張している。
本稿では,事実抽出と検証に多視点コンテキスト情報(IMCI)を統合することを提案する。
各証拠文について,文書内文脈と文書間文脈という2種類の文脈を定義する。
文書内コンテキストは、文書のタイトルと、同じ文書からの他の全ての文からなる。
文書間の文脈は、異なる文書から生じるかもしれない他のすべての証拠から成り立っている。
次に,複数視点の文脈情報を統合して,そのタスクを処理するエビデンス文を符号化する。
FEVER 1.0共有タスクにおける実験結果から,我々のIMCIフレームワークは,事実抽出と検証の両面で大きな進歩を示し,勝利したFEVERスコア72.97%,オンラインブラインドテストセットのラベル精度75.84%で最先端のパフォーマンスを達成した。
また,多視点の文脈情報の影響を検出するため,アブレーション研究を行う。
私たちのコードはhttps://github.com/phoenixsecularbird/IMCIでリリースされます。
関連論文リスト
- Unified Multi-Modal Interleaved Document Representation for Information Retrieval [57.65409208879344]
我々は、異なるモダリティでインターリーブされた文書を均等に埋め込み、より包括的でニュアンスのある文書表現を生成する。
具体的には、テキスト、画像、テーブルの処理と統合を統一されたフォーマットと表現に統合する、近年のビジョン言語モデルの能力を活用して、これを実現する。
論文 参考訳(メタデータ) (2024-10-03T17:49:09Z) - Contextual Document Embeddings [77.22328616983417]
本稿では,コンテキスト化された文書埋め込みのための2つの補完手法を提案する。
第一に、文書近傍を明示的にバッチ内コンテキスト損失に組み込む別のコントラスト学習目標である。
第二に、隣接する文書情報をエンコードされた表現に明示的にエンコードする新しいコンテキストアーキテクチャ。
論文 参考訳(メタデータ) (2024-10-03T14:33:34Z) - MetaSumPerceiver: Multimodal Multi-Document Evidence Summarization for Fact-Checking [0.283600654802951]
マルチモーダルデータセットからファクトチェックに有用なクレーム固有の要約を生成するために設計された要約モデルを提案する。
任意の長さの複数のモードから入力を処理できる動的知覚モデルを提案する。
提案手法は,MOCHEGデータセットのクレーム検証タスクにおいて,SOTAアプローチを4.6%向上させる。
論文 参考訳(メタデータ) (2024-07-18T01:33:20Z) - TRIE++: Towards End-to-End Information Extraction from Visually Rich
Documents [51.744527199305445]
本稿では,視覚的にリッチな文書からエンド・ツー・エンドの情報抽出フレームワークを提案する。
テキスト読み出しと情報抽出は、よく設計されたマルチモーダルコンテキストブロックを介して互いに強化することができる。
フレームワークはエンドツーエンドのトレーニング可能な方法でトレーニングでき、グローバルな最適化が達成できる。
論文 参考訳(メタデータ) (2022-07-14T08:52:07Z) - Layout-Aware Information Extraction for Document-Grounded Dialogue:
Dataset, Method and Demonstration [75.47708732473586]
視覚的にリッチな文書から構造的知識と意味的知識の両方を抽出するためのレイアウト対応文書レベル情報抽出データセット(LIE)を提案する。
LIEには製品および公式文書の4,061ページから3つの抽出タスクの62kアノテーションが含まれている。
実験の結果、レイアウトはVRDベースの抽出に不可欠であることが示され、システムデモでは、抽出された知識が、ユーザが関心を持っている答えを見つけるのに役立つことも確認されている。
論文 参考訳(メタデータ) (2022-07-14T07:59:45Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z) - Towards Robust Visual Information Extraction in Real World: New Dataset
and Novel Solution [30.438041837029875]
実世界のシナリオに向けた堅牢な視覚情報抽出システム(VIES)を提案する。
VIESは、同時テキスト検出、認識、情報抽出のための統一されたエンドツーエンドのトレーニング可能なフレームワークです。
テキストスポッティングと視覚情報抽出の両方の中国初のベンチマークであるephoieと呼ばれる完全注釈付きデータセットを構築した。
論文 参考訳(メタデータ) (2021-01-24T11:05:24Z) - TRIE: End-to-End Text Reading and Information Extraction for Document
Understanding [56.1416883796342]
本稿では,統合されたエンドツーエンドのテキスト読解と情報抽出ネットワークを提案する。
テキスト読解のマルチモーダル視覚的特徴とテキスト的特徴は、情報抽出のために融合される。
提案手法は, 精度と効率の両面において, 最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-05-27T01:47:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。