論文の概要: Ask to Know More: Generating Counterfactual Explanations for Fake Claims
- arxiv url: http://arxiv.org/abs/2206.04869v2
- Date: Tue, 14 Jun 2022 05:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-19 17:49:16.212646
- Title: Ask to Know More: Generating Counterfactual Explanations for Fake Claims
- Title(参考訳): もっと知りたい:偽のクレームに対する反事実的説明の生成
- Authors: Shih-Chieh Dai, Yi-Li Hsu, Aiping Xiong, and Lun-Wei Ku
- Abstract要約: 本稿では,あるニュースがなぜ偽物と認識されたのかを理解するために,事実チェック予測を反実的説明を用いて解明することを提案する。
この研究では、偽ニュースの反実的な説明を生成するには、良い質問、矛盾の発見、適切な推論の3つのステップがある。
以上の結果から,提案手法は最先端の手法と比較して,最も有用な説明が得られたことが示唆された。
- 参考スコア(独自算出の注目度): 11.135087647482145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated fact checking systems have been proposed that quickly provide
veracity prediction at scale to mitigate the negative influence of fake news on
people and on public opinion. However, most studies focus on veracity
classifiers of those systems, which merely predict the truthfulness of news
articles. We posit that effective fact checking also relies on people's
understanding of the predictions. In this paper, we propose elucidating fact
checking predictions using counterfactual explanations to help people
understand why a specific piece of news was identified as fake. In this work,
generating counterfactual explanations for fake news involves three steps:
asking good questions, finding contradictions, and reasoning appropriately. We
frame this research question as contradicted entailment reasoning through
question answering (QA). We first ask questions towards the false claim and
retrieve potential answers from the relevant evidence documents. Then, we
identify the most contradictory answer to the false claim by use of an
entailment classifier. Finally, a counterfactual explanation is created using a
matched QA pair with three different counterfactual explanation forms.
Experiments are conducted on the FEVER dataset for both system and human
evaluations. Results suggest that the proposed approach generates the most
helpful explanations compared to state-of-the-art methods.
- Abstract(参考訳): 人や世論に対する偽ニュースの否定的な影響を緩和するため、大規模に検証可能な自動事実チェックシステムが提案されている。
しかし、ほとんどの研究は、ニュース記事の真偽を単に予測するだけである、これらのシステムの正当性分類に焦点をあてている。
効果的な事実チェックは、予測に対する人々の理解にも依存していると仮定する。
本稿では,特定のニュースがフェイクであると特定された理由を理解するために,反事実的説明を用いた事実チェック予測手法を提案する。
本研究では,偽ニュースに対する反事実的説明の生成には,適切な質問,矛盾の発見,適切な推論という3つのステップが伴う。
本研究は,質問応答(QA)による係り受け推論と矛盾するものである。
まず、虚偽の主張について質問し、関連する証拠文書から潜在的な回答を得る。
次に,係り受け分類器を用いて,疑似クレームに対する最も矛盾する回答を特定する。
最後に、3つの異なる反現実的説明形式を持つ一致QAペアを用いて反現実的説明を生成する。
システム評価と人的評価のためのFEVERデータセットを用いて実験を行った。
以上の結果から,提案手法は最先端手法と比較して最も有用な説明が得られた。
関連論文リスト
- Explainable Fake News Detection With Large Language Model via Defense Among Competing Wisdom [19.027690459807197]
本稿では,防衛をベースとした説明可能なフェイクニュース検出フレームワークを提案する。
具体的には,まず,集団の知恵を2つの競合相手に分割し,それぞれに有能な証拠を検出するエビデンス抽出モジュールを提案する。
そこで我々は,大きな言語モデルを用いたプロンプトベースのモジュールを設計し,2つの正当性に対する理由を推測することによって正当化を生成する。
論文 参考訳(メタデータ) (2024-05-06T11:24:13Z) - QACHECK: A Demonstration System for Question-Guided Multi-Hop
Fact-Checking [68.06355980166053]
本稿では,質問誘導型マルチホップFact-Checking(QACHECK)システムを提案する。
クレームの検証に批判的な一連の質問をすることで、モデルの推論プロセスを導く。
各質問を支持する証拠の源となり、透明で説明可能な、ユーザフレンドリーな事実チェックプロセスが育まれます。
論文 参考訳(メタデータ) (2023-10-11T15:51:53Z) - ExClaim: Explainable Neural Claim Verification Using Rationalization [8.369720566612111]
ExClaimは、基礎的な証拠を含む説明可能なクレーム検証システムを提供しようとしている。
法体系にインスパイアされたExClaimは、合理化を活用して、請求に対する評決を提供する。
統計的および説明可能なAI(XAI)の評価は、有効で信頼性の高い結果を保証するために行われる。
論文 参考訳(メタデータ) (2023-01-21T08:26:27Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Generating Literal and Implied Subquestions to Fact-check Complex Claims [64.81832149826035]
我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
論文 参考訳(メタデータ) (2022-05-14T00:40:57Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Features of Explainability: How users understand counterfactual and
causal explanations for categorical and continuous features in XAI [10.151828072611428]
対物的説明は、AI決定の解釈可能性、レコメンデーション、バイアスに対処するためにますます使われています。
本研究では,ユーザ予測の客観的精度に対する反事実的・因果的説明の効果を検証した。
また, 利用者は, カテゴリー的特徴を参照する説明を, 連続的特徴を参照する説明よりも容易に理解できることがわかった。
論文 参考訳(メタデータ) (2022-04-21T15:01:09Z) - Explainable Fact-checking through Question Answering [17.1138216746642]
我々は,クレームから質問や回答を生成し,証拠から同じ質問に答えることを提案する。
また,各質問にアテンション機構を付加した回答比較モデルを提案する。
実験結果から,提案モデルが合理的に説明可能な機能を提供しながら,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-10-11T15:55:11Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z) - Reasoning on Knowledge Graphs with Debate Dynamics [27.225048123690243]
本稿では,議論力学に基づく知識グラフの自動推論手法を提案する。
主な考え方は、2つの強化学習エージェント間の議論ゲームとして三重分類のタスクを組むことである。
本稿では3つの分類とリンク予測タスクについてベンチマークを行う。
論文 参考訳(メタデータ) (2020-01-02T14:44:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。