論文の概要: The Role of Context in Detecting Previously Fact-Checked Claims
- arxiv url: http://arxiv.org/abs/2104.07423v1
- Date: Thu, 15 Apr 2021 12:39:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 15:18:25.130120
- Title: The Role of Context in Detecting Previously Fact-Checked Claims
- Title(参考訳): 事実確認クレームの検出における文脈の役割
- Authors: Shaden Shaar, Firoj Alam, Giovanni Da San Martino, Preslav Nakov
- Abstract要約: 我々は、文脈が本当に重要である政治的議論でなされた主張に焦点を当てている。
本稿では,事実確認説明書において,クレームのコンテキストをソース側とターゲット側の両方でモデル化することの影響について検討する。
- 参考スコア(独自算出の注目度): 27.076320857009655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have seen the proliferation of disinformation and misinformation
online, thanks to the freedom of expression on the Internet and to the rise of
social media. Two solutions were proposed to address the problem: (i) manual
fact-checking, which is accurate and credible, but slow and non-scalable, and
(ii) automatic fact-checking, which is fast and scalable, but lacks
explainability and credibility. With the accumulation of enough manually
fact-checked claims, a middle-ground approach has emerged: checking whether a
given claim has previously been fact-checked. This can be made automatically,
and thus fast, while also offering credibility and explainability, thanks to
the human fact-checking and explanations in the associated fact-checking
article. This is a relatively new and understudied research direction, and here
we focus on claims made in a political debate, where context really matters.
Thus, we study the impact of modeling the context of the claim: both on the
source side, i.e., in the debate, as well as on the target side, i.e., in the
fact-checking explanation document. We do this by modeling the local context,
the global context, as well as by means of co-reference resolution, and
reasoning over the target text using Transformer-XH. The experimental results
show that each of these represents a valuable information source, but that
modeling the source-side context is more important, and can yield 10+ points of
absolute improvement.
- Abstract(参考訳): 近年、インターネット上での表現の自由とソーシャルメディアの台頭により、偽情報や誤情報がオンラインで拡散している。
この問題に対処するために, (i) 正確かつ信頼性の高い手動ファクトチェック, (ii) 高速かつスケーラブルな自動ファクトチェック, 説明可能性と信頼性の欠如という2つのソリューションが提案されている。
十分な手作業による事実チェッククレームが蓄積されたことにより、そのクレームが以前に事実チェックされたかどうかをチェックする中核的なアプローチが浮上した。
これは、人間による事実チェックと関連する事実チェックの記事での説明のおかげで、信頼性と説明可能性を提供すると同時に、自動的に作成することができる。
これは比較的新しい研究の方向性であり、ここでは文脈が本当に重要である政治的議論における主張に焦点を当てる。
そこで本研究では,クレームの文脈をモデル化することによる影響について検討する。すなわち,議論のソース側,すなわち対象側,すなわち事実確認説明書において。
我々は、局所的なコンテキスト、グローバルなコンテキスト、および共参照解像度によってモデル化し、transformer-xhを用いてターゲットのテキストを推論することでこれを行う。
実験の結果,それぞれが貴重な情報源であるが,ソース側コンテキストのモデル化の方が重要であり,絶対的な改善点が10点以上あることが分かった。
関連論文リスト
- Automated Justification Production for Claim Veracity in Fact Checking: A Survey on Architectures and Approaches [2.0140898354987353]
AFC(Automated Fact-Checking)は、クレーム精度の自動検証である。
AFCは、特に大量のコンテンツが毎日オンラインで生成されることを考えると、誤報から真実を識別するために不可欠である。
現在の研究は、メタデータ分析と言語精査を通してクレームの正確性を予測することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-09T01:54:13Z) - Molecular Facts: Desiderata for Decontextualization in LLM Fact Verification [56.39904484784127]
我々は、完全な原子的事実は正しい表現ではなく、分子的事実の2つの基準を定義する。
本稿では,分子事実を自動生成するための基準手法を提案する。
論文 参考訳(メタデータ) (2024-06-28T17:43:48Z) - Support or Refute: Analyzing the Stance of Evidence to Detect
Out-of-Context Mis- and Disinformation [13.134162427636356]
ネット上の誤報や偽報が社会問題となっている。
誤情報や偽情報の1つの一般的な形態は、文脈外情報(OOC)である。
マルチモーダルな証拠の異なる部分のスタンスを抽出できるスタンス抽出ネットワーク(SEN)を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:05:54Z) - Missing Counter-Evidence Renders NLP Fact-Checking Unrealistic for
Misinformation [67.69725605939315]
誤報は、信頼できる情報が限られている不確実な時に現れる。
NLPベースのファクトチェックは、まだ利用できないかもしれない反証拠に依存しているため、これは難しい。
論文 参考訳(メタデータ) (2022-10-25T09:40:48Z) - Generating Literal and Implied Subquestions to Fact-check Complex Claims [64.81832149826035]
我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
論文 参考訳(メタデータ) (2022-05-14T00:40:57Z) - Synthetic Disinformation Attacks on Automated Fact Verification Systems [53.011635547834025]
本研究では,2つのシミュレーション環境において,自動ファクトチェッカーの合成正反対証拠に対する感度について検討する。
これらのシステムでは,これらの攻撃に対して大幅な性能低下がみられた。
偽情報の発生源としての現代のNLGシステムの脅威の増大について論じる。
論文 参考訳(メタデータ) (2022-02-18T19:01:01Z) - DialFact: A Benchmark for Fact-Checking in Dialogue [56.63709206232572]
われわれはDialFactという22,245の注釈付き会話クレームのベンチマークデータセットを構築し、ウィキペディアの証拠と組み合わせた。
FEVERのような非対話データでトレーニングされた既存のファクトチェックモデルは、我々のタスクでうまく機能しないことがわかった。
本稿では,対話におけるファクトチェック性能を効果的に向上する,シンプルなデータ効率のソリューションを提案する。
論文 参考訳(メタデータ) (2021-10-15T17:34:35Z) - Towards Explainable Fact Checking [22.91475787277623]
この論文は、自動事実チェックに関する私の研究を提示します。
これには、クレームチェックの信頼性検出、スタンス検出、正確性予測が含まれる。
その貢献は事実チェックに留まらず、より一般的な機械学習ソリューションを提案している。
論文 参考訳(メタデータ) (2021-08-23T16:22:50Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。