論文の概要: Towards Explainable Fact Checking
- arxiv url: http://arxiv.org/abs/2108.10274v1
- Date: Mon, 23 Aug 2021 16:22:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 16:04:57.583238
- Title: Towards Explainable Fact Checking
- Title(参考訳): 説明可能な事実チェックに向けて
- Authors: Isabelle Augenstein
- Abstract要約: この論文は、自動事実チェックに関する私の研究を提示します。
これには、クレームチェックの信頼性検出、スタンス検出、正確性予測が含まれる。
その貢献は事実チェックに留まらず、より一般的な機械学習ソリューションを提案している。
- 参考スコア(独自算出の注目度): 22.91475787277623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The past decade has seen a substantial rise in the amount of mis- and
disinformation online, from targeted disinformation campaigns to influence
politics, to the unintentional spreading of misinformation about public health.
This development has spurred research in the area of automatic fact checking,
from approaches to detect check-worthy claims and determining the stance of
tweets towards claims, to methods to determine the veracity of claims given
evidence documents. These automatic methods are often content-based, using
natural language processing methods, which in turn utilise deep neural networks
to learn higher-order features from text in order to make predictions. As deep
neural networks are black-box models, their inner workings cannot be easily
explained. At the same time, it is desirable to explain how they arrive at
certain decisions, especially if they are to be used for decision making. While
this has been known for some time, the issues this raises have been exacerbated
by models increasing in size, and by EU legislation requiring models to be used
for decision making to provide explanations, and, very recently, by legislation
requiring online platforms operating in the EU to provide transparent reporting
on their services. Despite this, current solutions for explainability are still
lacking in the area of fact checking. This thesis presents my research on
automatic fact checking, including claim check-worthiness detection, stance
detection and veracity prediction. Its contributions go beyond fact checking,
with the thesis proposing more general machine learning solutions for natural
language processing in the area of learning with limited labelled data.
Finally, the thesis presents some first solutions for explainable fact
checking.
- Abstract(参考訳): 過去10年で、偽情報や偽情報のオンライン化が大幅に増加し、ターゲットの偽情報キャンペーンから政治への影響、公衆衛生に関する偽情報の意図しない拡散などがあった。
この開発は、チェック価値のあるクレームを検出し、クレームに対するツイートのスタンスを決定するアプローチから、与えられた証拠文書のクレームの正確性を決定する方法まで、自動事実チェックの分野の研究を刺激してきた。
これらの自動手法は、しばしばコンテンツベースであり、自然言語処理を用いて、深層ニューラルネットワークを使用してテキストから高次特徴を学習し、予測を行う。
ディープニューラルネットワークはブラックボックスモデルであるため、内部の動作を簡単に説明できない。
同時に、特定の決定にどのように到達するか、特に意思決定に使用される場合は、説明することが望ましい。
これは以前から知られていたが、この問題は拡大するモデルによって悪化し、euの法律では意思決定に使用するモデルが必要となり、最近ではeuで運営されているオンラインプラットフォームがサービスに対して透過的な報告を提供するよう要求する法律によって悪化した。
それにもかかわらず、現在の説明可能性の解決策は、事実チェックの領域にはまだ欠けている。
本論文は,クレームチェック適性検出,スタンス検出,veracity予測を含む自動事実チェックについて述べる。
論文では、限定されたラベル付きデータによる学習の分野で、自然言語処理のためのより一般的な機械学習ソリューションを提案している。
最後に、論文は説明可能な事実チェックのための最初のソリューションを提示している。
関連論文リスト
- FactLLaMA: Optimizing Instruction-Following Language Models with
External Knowledge for Automated Fact-Checking [10.046323978189847]
本稿では,命令追従言語モデルと外部エビデンス検索を併用して,ファクトチェック性能を向上させることを提案する。
我々のアプローチは、与えられた入力クレームに関する適切な証拠を検索するために検索エンジンを活用することである。
そして、この証拠を用いて、LLaMAと呼ばれるオープンソースの言語モデルを作成し、入力クレームの正確性をより正確に予測できるようにする。
論文 参考訳(メタデータ) (2023-09-01T04:14:39Z) - Mitigating Temporal Misalignment by Discarding Outdated Facts [58.620269228776294]
大規模な言語モデルは、しばしば時間的ミスアライメントの下で使われ、現在に関する質問に答える。
我々は、ある事実がいつまで真実であるかを予測するタスクとして、事実期間予測を提案する。
私たちのデータとコードはhttps://github.com/mikejqzhang/mitigating_misalignment.comで公開されています。
論文 参考訳(メタデータ) (2023-05-24T07:30:08Z) - ExClaim: Explainable Neural Claim Verification Using Rationalization [8.369720566612111]
ExClaimは、基礎的な証拠を含む説明可能なクレーム検証システムを提供しようとしている。
法体系にインスパイアされたExClaimは、合理化を活用して、請求に対する評決を提供する。
統計的および説明可能なAI(XAI)の評価は、有効で信頼性の高い結果を保証するために行われる。
論文 参考訳(メタデータ) (2023-01-21T08:26:27Z) - CHEF: A Pilot Chinese Dataset for Evidence-Based Fact-Checking [55.75590135151682]
CHEFは、10万件の現実世界のクレームに関する最初のChenese EvidenceベースのFact-checkingデータセットである。
このデータセットは、政治から公衆衛生まで、複数のドメインをカバーし、インターネットから取得した注釈付きの証拠を提供する。
論文 参考訳(メタデータ) (2022-06-06T09:11:03Z) - Synthetic Disinformation Attacks on Automated Fact Verification Systems [53.011635547834025]
本研究では,2つのシミュレーション環境において,自動ファクトチェッカーの合成正反対証拠に対する感度について検討する。
これらのシステムでは,これらの攻撃に対して大幅な性能低下がみられた。
偽情報の発生源としての現代のNLGシステムの脅威の増大について論じる。
論文 参考訳(メタデータ) (2022-02-18T19:01:01Z) - A Survey on Automated Fact-Checking [18.255327608480165]
本稿では,自然言語処理によるファクトチェックの自動化について検討し,関連する課題や規律との関係について考察する。
既存のデータセットとモデルを概観し、与えられた様々な定義を統一し、共通の概念を識別することを目的としている。
論文 参考訳(メタデータ) (2021-08-26T16:34:51Z) - FaVIQ: FAct Verification from Information-seeking Questions [77.7067957445298]
実ユーザによる情報探索質問を用いて,ファVIQと呼ばれる大規模事実検証データセットを構築した。
我々の主張は自然であると証明され、語彙バイアスがほとんどなく、検証の証拠を完全に理解する必要がある。
論文 参考訳(メタデータ) (2021-07-05T17:31:44Z) - The Role of Context in Detecting Previously Fact-Checked Claims [27.076320857009655]
我々は、文脈が本当に重要である政治的議論でなされた主張に焦点を当てている。
本稿では,事実確認説明書において,クレームのコンテキストをソース側とターゲット側の両方でモデル化することの影響について検討する。
論文 参考訳(メタデータ) (2021-04-15T12:39:37Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。