論文の概要: DTCA: Decision Tree-based Co-Attention Networks for Explainable Claim
Verification
- arxiv url: http://arxiv.org/abs/2004.13455v1
- Date: Tue, 28 Apr 2020 12:19:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 22:16:51.649707
- Title: DTCA: Decision Tree-based Co-Attention Networks for Explainable Claim
Verification
- Title(参考訳): DTCA:説明可能なクレーム検証のための決定木に基づくコアテンションネットワーク
- Authors: Lianwei Wu, Yuan Rao, Yongqiang Zhao, Hao Liang, Ambreen Nazir
- Abstract要約: 本稿では,説明可能なクレーム検証の証拠を発見するための決定木に基づくコ・アテンション・モデル(DTCA)を提案する。
具体的には、まずDTE(Decision Tree-based Evidence Model)を構築し、透明で解釈可能な方法で、信頼性の高いコメントを証拠として選択する。
次に,コ・アテンション・セルフアテンション・ネットワーク(CaSa)を設計して,選択したエビデンスをクレームと相互作用させる。
- 参考スコア(独自算出の注目度): 16.144566353074314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, many methods discover effective evidence from reliable sources by
appropriate neural networks for explainable claim verification, which has been
widely recognized. However, in these methods, the discovery process of evidence
is nontransparent and unexplained. Simultaneously, the discovered evidence only
roughly aims at the interpretability of the whole sequence of claims but
insufficient to focus on the false parts of claims. In this paper, we propose a
Decision Tree-based Co-Attention model (DTCA) to discover evidence for
explainable claim verification. Specifically, we first construct Decision
Tree-based Evidence model (DTE) to select comments with high credibility as
evidence in a transparent and interpretable way. Then we design Co-attention
Self-attention networks (CaSa) to make the selected evidence interact with
claims, which is for 1) training DTE to determine the optimal decision
thresholds and obtain more powerful evidence; and 2) utilizing the evidence to
find the false parts in the claim. Experiments on two public datasets,
RumourEval and PHEME, demonstrate that DTCA not only provides explanations for
the results of claim verification but also achieves the state-of-the-art
performance, boosting the F1-score by 3.11%, 2.41%, respectively.
- Abstract(参考訳): 近年,近年広く認識されている説明可能なクレーム検証のための適切なニューラルネットワークにより,信頼できる情報源から有効な証拠を発見する方法が数多くある。
しかし、これらの方法では、証拠の発見プロセスは不透明で説明できない。
同時に、発見された証拠は、クレームの全シーケンスの解釈可能性に大まかに向けるだけでなく、クレームの誤った部分に焦点を当てるには不十分である。
本稿では,説明可能なクレーム検証の証拠を見つけるための決定木に基づくコアテンションモデル(dtca)を提案する。
具体的には,まず決定木に基づくエビデンスモデル(dte)を構築し,信頼度の高いコメントを,透過的かつ解釈可能な方法で証拠として選択する。
次に,コ・アテンション・セルフアテンション・ネットワーク(CaSa)を設計し,選択したエビデンスをクレームと相互作用させる。
1) DTEを訓練して、最適な判定基準を決定し、より強力な証拠を得る。
2) 証拠を利用して,請求項の虚偽部分を見出す。
2つの公開データセットであるRumourEvalとPHEMEの実験は、DTCAがクレーム検証の結果の説明を提供するだけでなく、最先端のパフォーマンスも達成し、それぞれF1スコアを3.11%、2.41%向上させることを示した。
関連論文リスト
- Robust Claim Verification Through Fact Detection [17.29665711917281]
我々の新しいアプローチであるFactDetectは、大規模言語モデル(LLM)を利用して、証拠から簡潔な事実文を生成する。
生成された事実は、クレームとエビデンスと組み合わせられる。
提案手法は,F1スコアにおいて,教師付きクレーム検証モデルにおいて,15%の競合結果を示す。
論文 参考訳(メタデータ) (2024-07-25T20:03:43Z) - Navigating the Noisy Crowd: Finding Key Information for Claim Verification [19.769771741059408]
EAConは,証拠の中から重要な情報を見つけ出し,請求項の各側面を個別に検証するフレームワークである。
Ecconはクレームからキーワードを見つけ出し、ファジィマッチングを使用して、生のエビデンスごとに関連するキーワードを選択する。
Ecconは、元の主張をサブステートに分解し、個別に抽象化された証拠と生の証拠の両方に対して検証される。
論文 参考訳(メタデータ) (2024-07-17T09:24:10Z) - Give Me More Details: Improving Fact-Checking with Latent Retrieval [58.706972228039604]
証拠は、自動化された事実チェックにおいて重要な役割を果たす。
既存のファクトチェックシステムは、エビデンス文が与えられたと仮定するか、検索エンジンが返した検索スニペットを使用する。
資料から得られた全文を証拠として組み込んで,2つの豊富なデータセットを導入することを提案する。
論文 参考訳(メタデータ) (2023-05-25T15:01:19Z) - Complex Claim Verification with Evidence Retrieved in the Wild [73.19998942259073]
Webから生の証拠を取り出すことによって,実世界のクレームをチェックするための,最初の完全自動化パイプラインを提示する。
私たちのパイプラインには,クレーム分解,生文書検索,きめ細かい証拠検索,クレーム中心の要約,正確性判定という5つのコンポーネントが含まれています。
論文 参考訳(メタデータ) (2023-05-19T17:49:19Z) - Decker: Double Check with Heterogeneous Knowledge for Commonsense Fact
Verification [80.31112722910787]
異種知識をブリッジ可能な常識的事実検証モデルであるDeckerを提案する。
CSQA2.0とCREAKの2つのコモンセンス事実検証ベンチマークデータセットの実験結果から,Deckerの有効性が示された。
論文 参考訳(メタデータ) (2023-05-10T06:28:16Z) - Read it Twice: Towards Faithfully Interpretable Fact Verification by
Revisiting Evidence [59.81749318292707]
本稿では,証拠の検索とクレームの検証を行うためにReReadという名前の事実検証モデルを提案する。
提案システムは,異なる設定下での最良のレポートモデルに対して,大幅な改善を実現することができる。
論文 参考訳(メタデータ) (2023-05-02T03:23:14Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z) - Topic-Aware Evidence Reasoning and Stance-Aware Aggregation for Fact
Verification [19.130541561303293]
本稿では,事実検証のための新たな話題認識型証拠推論とスタンス認識型アグリゲーションモデルを提案する。
2つのベンチマークデータセットで実施されたテストは、事実検証のためのいくつかの最先端アプローチよりも提案モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2021-06-02T14:33:12Z) - AmbiFC: Fact-Checking Ambiguous Claims with Evidence [57.7091560922174]
実世界の情報ニーズから10kクレームを抽出したファクトチェックデータセットであるAmbiFCを提示する。
アンビFCの証拠に対する主張を比較する際に,曖昧さから生じる不一致を分析した。
我々は,このあいまいさをソフトラベルで予測するモデルを開発した。
論文 参考訳(メタデータ) (2021-04-01T17:40:08Z) - Hierarchical Evidence Set Modeling for Automated Fact Extraction and
Verification [5.836068916903788]
階層的エビデンス・セット・モデリング(Heerarchical Evidence Set Modeling, HESM)は、エビデンス・セットを抽出し、サポート対象のクレームを検証するためのフレームワークである。
実験の結果,HESMは事実抽出とクレーム検証の7つの最先端手法より優れていた。
論文 参考訳(メタデータ) (2020-10-10T22:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。