論文の概要: Explainable Automated Fact-Checking: A Survey
- arxiv url: http://arxiv.org/abs/2011.03870v1
- Date: Sat, 7 Nov 2020 23:56:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 22:17:17.985722
- Title: Explainable Automated Fact-Checking: A Survey
- Title(参考訳): 説明可能な自動ファクトチェック:調査
- Authors: Neema Kotonya and Francesca Toni
- Abstract要約: 説明機能 – 予測の理由を提供するファクトチェックシステム – に重点を置いています。
ファクトチェックシステムの予測を説明する既存の手法を要約し、このトピックのトレンドを探る。
ファクトチェックの説明を生成するためのさらなる研究の方向性を提案し,これらが研究領域の改善に繋がる可能性について述べる。
- 参考スコア(独自算出の注目度): 11.529816799331979
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A number of exciting advances have been made in automated fact-checking
thanks to increasingly larger datasets and more powerful systems, leading to
improvements in the complexity of claims which can be accurately fact-checked.
However, despite these advances, there are still desirable functionalities
missing from the fact-checking pipeline. In this survey, we focus on the
explanation functionality -- that is fact-checking systems providing reasons
for their predictions. We summarize existing methods for explaining the
predictions of fact-checking systems and we explore trends in this topic.
Further, we consider what makes for good explanations in this specific domain
through a comparative analysis of existing fact-checking explanations against
some desirable properties. Finally, we propose further research directions for
generating fact-checking explanations, and describe how these may lead to
improvements in the research area.
- Abstract(参考訳): ますます大きなデータセットと強力なシステムのおかげで、ファクトチェックの自動化において多くのエキサイティングな進歩がなされ、正確なファクトチェックが可能なクレームの複雑さが向上した。
しかし、これらの進歩にもかかわらず、ファクトチェックパイプラインには望ましい機能がない。
本調査では,予測の理由を提供するファクトチェックシステムである説明機能に注目した。
我々は,ファクトチェックシステムの予測を説明する既存の手法を要約し,このトピックのトレンドを考察する。
さらに, 既存の事実チェック説明と望ましい特性の比較分析を行い, この領域における説明の良し悪しを考察する。
最後に、ファクトチェックの説明を生成するためのさらなる研究の方向性を提案し、研究領域の改善にどのようにつながるかを説明する。
関連論文リスト
- Auditing Local Explanations is Hard [14.172657936593582]
本研究では,第三者監査官やユーザ集団が健全性検査を行う監査フレームワークについて検討する。
監査人がこのフレームワーク内で成功するために必要なクエリの量について、上位と下位のバウンダリを証明します。
以上の結果から,複雑な高次元設定では,ポイントワイドな予測と説明が不十分である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-18T08:34:05Z) - Automated Justification Production for Claim Veracity in Fact Checking: A Survey on Architectures and Approaches [2.0140898354987353]
AFC(Automated Fact-Checking)は、クレーム精度の自動検証である。
AFCは、特に大量のコンテンツが毎日オンラインで生成されることを考えると、誤報から真実を識別するために不可欠である。
現在の研究は、メタデータ分析と言語精査を通してクレームの正確性を予測することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-09T01:54:13Z) - RU22Fact: Optimizing Evidence for Multilingual Explainable Fact-Checking on Russia-Ukraine Conflict [34.2739191920746]
高品質な証拠は、ファクトチェックシステムを強化する上で重要な役割を担っている。
本稿では,Webから証拠を自動的に抽出・要約する大規模言語モデルを提案する。
RU22Factは、ロシアとウクライナの紛争に関する説明可能な事実チェックデータセットであり、16Kサンプルのうち2022年に構築された。
論文 参考訳(メタデータ) (2024-03-25T11:56:29Z) - Can LLMs Produce Faithful Explanations For Fact-checking? Towards
Faithful Explainable Fact-Checking via Multi-Agent Debate [75.10515686215177]
大規模言語モデル(LLM)はテキスト生成に優れるが、事実チェックにおいて忠実な説明を生成する能力は依然として過小評価されている。
多様な役割を持つエージェントとして複数のLSMを利用するマルチエージェント・デベート・リファインメント(MADR)フレームワークを提案する。
MADRは、最終的な説明が厳密な検証を行い、不誠実な要素の可能性を著しく低減し、提示された証拠と密接に一致させることを保証する。
論文 参考訳(メタデータ) (2024-02-12T04:32:33Z) - Rethinking Complex Queries on Knowledge Graphs with Neural Link Predictors [58.340159346749964]
本稿では,証明可能な推論能力を備えた複雑なクエリを用いたエンドツーエンド学習を支援するニューラルシンボリック手法を提案する。
これまでに検討されていない10種類の新しいクエリを含む新しいデータセットを開発する。
提案手法は,新しいデータセットにおいて先行手法を著しく上回り,既存データセットにおける先行手法を同時に上回っている。
論文 参考訳(メタデータ) (2023-04-14T11:35:35Z) - Explaining Recommendation System Using Counterfactual Textual
Explanations [4.318555434063274]
エンドユーザーが何らかのアウトプットを生産する理由を理解すれば、システムへの信頼がより容易になる。
より説明可能な出力を生成する方法の1つは、反実的推論を使うことである。
論文 参考訳(メタデータ) (2023-03-14T06:45:28Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - DeSePtion: Dual Sequence Prediction and Adversarial Examples for
Improved Fact-Checking [46.13738685855884]
ファクトチェックの現在のシステムは、ファクトチェックの現実的な課題の3つのカテゴリに脆弱であることを示す。
文書選択に複数のポインタネットワークを用いて,これらの「攻撃」に対して耐性を持つように設計されたシステムを提案する。
その結果,これらの攻撃に対処する際には,証拠検索の改善が主な原因で,FEVERの最先端の結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-04-27T15:18:49Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。