論文の概要: Reinforcement Learning-based Knowledge Graph Reasoning for Explainable
Fact-checking
- arxiv url: http://arxiv.org/abs/2310.07613v1
- Date: Wed, 11 Oct 2023 15:58:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 22:00:40.951994
- Title: Reinforcement Learning-based Knowledge Graph Reasoning for Explainable
Fact-checking
- Title(参考訳): 説明可能なファクトチェックのための強化学習に基づく知識グラフ推論
- Authors: Gustav Nikopensius, Mohit Mayank, Orchid Chetia Phukan, Rajesh Sharma
- Abstract要約: 説明可能な事実チェックのためのRLに基づく推論手法を提案する。
FB15K-277とNELL-995データセットの実験では、知識グラフの推論が人間の読みやすい説明を生成する効果的な方法であることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fact-checking is a crucial task as it ensures the prevention of
misinformation. However, manual fact-checking cannot keep up with the rate at
which false information is generated and disseminated online. Automated
fact-checking by machines is significantly quicker than by humans. But for
better trust and transparency of these automated systems, explainability in the
fact-checking process is necessary. Fact-checking often entails contrasting a
factual assertion with a body of knowledge for such explanations. An effective
way of representing knowledge is the Knowledge Graph (KG). There have been
sufficient works proposed related to fact-checking with the usage of KG but not
much focus is given to the application of reinforcement learning (RL) in such
cases. To mitigate this gap, we propose an RL-based KG reasoning approach for
explainable fact-checking. Extensive experiments on FB15K-277 and NELL-995
datasets reveal that reasoning over a KG is an effective way of producing
human-readable explanations in the form of paths and classifications for fact
claims. The RL reasoning agent computes a path that either proves or disproves
a factual claim, but does not provide a verdict itself. A verdict is reached by
a voting mechanism that utilizes paths produced by the agent. These paths can
be presented to human readers so that they themselves can decide whether or not
the provided evidence is convincing or not. This work will encourage works in
this direction for incorporating RL for explainable fact-checking as it
increases trustworthiness by providing a human-in-the-loop approach.
- Abstract(参考訳): ファクトチェックは誤情報の防止を保証するため、重要なタスクである。
しかし、手動の事実チェックは、偽情報が生成され、オンラインで配布される速度に遅れない。
機械によるファクトチェックは、人間よりもはるかに高速である。
しかし、これらの自動化システムの信頼性と透明性を高めるためには、ファクトチェックプロセスの説明可能性が必要である。
事実チェックは、しばしばそのような説明のために、事実的な主張と知識の体系との対比を伴う。
知識を表現する効果的な方法は知識グラフ(KG)である。
KGの使用による事実チェックに関する十分な研究が提案されているが、そのような場合の強化学習(RL)の適用にはあまり焦点が当てられていない。
このギャップを緩和するために、説明可能な事実チェックのためのRLベースのKG推論手法を提案する。
FB15K-277とNELL-995データセットの大規模な実験により、KGの推論は、事実主張のためのパスと分類の形式で人間可読な説明を生成する効果的な方法であることが示された。
RL推論エージェントは、事実的主張を証明または否定するパスを計算するが、判断そのものを提供しない。
評決は、エージェントが生成したパスを利用する投票機構によって達成される。
これらの経路は、提示された証拠が説得力があるかどうか自身で判断できるように、人間の読者に提示することができる。
この研究は、人間とループのアプローチを提供することで信頼性を高めるため、説明可能な事実チェックのためにRLを取り入れる作業を促進する。
関連論文リスト
- Contrastive Learning to Improve Retrieval for Real-world Fact Checking [84.57583869042791]
ファクト・チェッキング・リランカ(Contrastive Fact-Checking Reranker, CFR)を提案する。
我々はAVeriTeCデータセットを活用し、証拠文書からの人間による回答とクレームのサブクエストを注釈付けする。
データセットの精度は6%向上した。
論文 参考訳(メタデータ) (2024-10-07T00:09:50Z) - Fact or Fiction? Improving Fact Verification with Knowledge Graphs through Simplified Subgraph Retrievals [0.0]
本稿では, 証拠が構造化知識グラフの形で存在するデータセット上で, クレームを検証するための効率的な方法を提案する。
また,エビデンス検索プロセスの簡略化により,計算資源の削減とテストセット精度の向上を実現するモデルの構築が可能となる。
論文 参考訳(メタデータ) (2024-08-14T10:46:15Z) - Evaluating Evidence Attribution in Generated Fact Checking Explanations [48.776087871960584]
生成した説明文の属性品質を評価するために,新しい評価プロトコル,引用マスキングとリカバリを導入する。
実験により、最高の性能を持つLSMは、不正確な属性を持つ説明を生成することが明らかとなった。
より良い説明を生み出すには人為的な証拠が不可欠である。
論文 参考訳(メタデータ) (2024-06-18T14:13:13Z) - Missci: Reconstructing Fallacies in Misrepresented Science [84.32990746227385]
ソーシャルネットワーク上の健康関連の誤報は、意思決定の貧弱さと現実世界の危険につながる可能性がある。
ミスシは、誤った推論のための新しい議論理論モデルである。
大規模言語モデルの批判的推論能力をテストするためのデータセットとしてMissciを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:11:10Z) - Reasoning on Graphs: Faithful and Interpretable Large Language Model
Reasoning [104.92384929827776]
大規模言語モデル(LLM)は複雑なタスクにおいて顕著な推論能力を示している。
彼らは推論中に最新の知識と幻覚を欠いている。
知識グラフ(KG)は、推論のための信頼できる知識源を提供する。
論文 参考訳(メタデータ) (2023-10-02T10:14:43Z) - FactLLaMA: Optimizing Instruction-Following Language Models with
External Knowledge for Automated Fact-Checking [10.046323978189847]
本稿では,命令追従言語モデルと外部エビデンス検索を併用して,ファクトチェック性能を向上させることを提案する。
我々のアプローチは、与えられた入力クレームに関する適切な証拠を検索するために検索エンジンを活用することである。
そして、この証拠を用いて、LLaMAと呼ばれるオープンソースの言語モデルを作成し、入力クレームの正確性をより正確に予測できるようにする。
論文 参考訳(メタデータ) (2023-09-01T04:14:39Z) - FactKG: Fact Verification via Reasoning on Knowledge Graphs [12.5437408722802]
我々は、知識グラフの推論によるFact Verificationという新しいデータセットを紹介した。
1-hop, Conjunction, Existence, Multi-hop, Negationの5種類の推論を持つ108kの自然言語クレームで構成されている。
本稿では,FactKGをベースラインとして解析する手法を提案する。
論文 参考訳(メタデータ) (2023-05-11T06:08:49Z) - ExClaim: Explainable Neural Claim Verification Using Rationalization [8.369720566612111]
ExClaimは、基礎的な証拠を含む説明可能なクレーム検証システムを提供しようとしている。
法体系にインスパイアされたExClaimは、合理化を活用して、請求に対する評決を提供する。
統計的および説明可能なAI(XAI)の評価は、有効で信頼性の高い結果を保証するために行われる。
論文 参考訳(メタデータ) (2023-01-21T08:26:27Z) - Missing Counter-Evidence Renders NLP Fact-Checking Unrealistic for
Misinformation [67.69725605939315]
誤報は、信頼できる情報が限られている不確実な時に現れる。
NLPベースのファクトチェックは、まだ利用できないかもしれない反証拠に依存しているため、これは難しい。
論文 参考訳(メタデータ) (2022-10-25T09:40:48Z) - FaVIQ: FAct Verification from Information-seeking Questions [77.7067957445298]
実ユーザによる情報探索質問を用いて,ファVIQと呼ばれる大規模事実検証データセットを構築した。
我々の主張は自然であると証明され、語彙バイアスがほとんどなく、検証の証拠を完全に理解する必要がある。
論文 参考訳(メタデータ) (2021-07-05T17:31:44Z) - Efficient Knowledge Graph Validation via Cross-Graph Representation
Learning [40.570585195713704]
ノイズの多い事実は、自動抽出によって引き起こされる可能性のある知識グラフに必然的に導入されます。
対象KGの事実を効率的に検証するために外部KGを活用するクロスグラフ表現学習フレームワークであるCrossValを提案する。
論文 参考訳(メタデータ) (2020-08-16T20:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。