論文の概要: Explainable Fact-checking through Question Answering
- arxiv url: http://arxiv.org/abs/2110.05369v1
- Date: Mon, 11 Oct 2021 15:55:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 15:22:27.259591
- Title: Explainable Fact-checking through Question Answering
- Title(参考訳): 質問応答による説明可能な事実確認
- Authors: Jing Yang, Didier Vega-Oliveros, Ta\'is Seibt and Anderson Rocha
- Abstract要約: 我々は,クレームから質問や回答を生成し,証拠から同じ質問に答えることを提案する。
また,各質問にアテンション機構を付加した回答比較モデルを提案する。
実験結果から,提案モデルが合理的に説明可能な機能を提供しながら,最先端の性能を達成できることが示唆された。
- 参考スコア(独自算出の注目度): 17.1138216746642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Misleading or false information has been creating chaos in some places around
the world. To mitigate this issue, many researchers have proposed automated
fact-checking methods to fight the spread of fake news. However, most methods
cannot explain the reasoning behind their decisions, failing to build trust
between machines and humans using such technology. Trust is essential for
fact-checking to be applied in the real world. Here, we address fact-checking
explainability through question answering. In particular, we propose generating
questions and answers from claims and answering the same questions from
evidence. We also propose an answer comparison model with an attention
mechanism attached to each question. Leveraging question answering as a proxy,
we break down automated fact-checking into several steps -- this separation
aids models' explainability as it allows for more detailed analysis of their
decision-making processes. Experimental results show that the proposed model
can achieve state-of-the-art performance while providing reasonable explainable
capabilities.
- Abstract(参考訳): ミスリーディングや偽の情報は、世界中のいくつかの場所で混乱を引き起こしている。
この問題を軽減するために、多くの研究者が偽ニュースの拡散と戦う自動ファクトチェック手法を提案している。
しかし、ほとんどの手法では、意思決定の背後にある理由を説明できず、そのような技術を使って機械と人間の信頼を築けなかった。
事実チェックを現実の世界に適用するには信頼が不可欠です。
ここでは,質問応答によるファクトチェック説明可能性について述べる。
特に,クレームから質問と回答を生成し,証拠から同じ質問に答えることを提案する。
また,各質問に注意機構を付加した回答比較モデルを提案する。
質問への回答をプロキシとして活用することで、自動ファクトチェックをいくつかのステップに分解する -- これにより、意思決定プロセスのより詳細な分析が可能になるため、モデルの説明性が向上します。
実験の結果,提案モデルは合理的な説明能力を提供しながら,最先端の性能を実現することができることがわかった。
関連論文リスト
- Don't Just Say "I don't know"! Self-aligning Large Language Models for Responding to Unknown Questions with Explanations [70.6395572287422]
自己調整法は,回答を拒否するだけでなく,未知の質問の解答不能を説明できる。
我々は, LLM自体を微調整し, 未知の質問に対する応答を所望の通りに調整するために, 偏差駆動による自己計算を行い, 有資格データを選択する。
論文 参考訳(メタデータ) (2024-02-23T02:24:36Z) - A Comparative and Experimental Study on Automatic Question Answering
Systems and its Robustness against Word Jumbling [0.49157446832511503]
なぜなら、頻繁に質問される質問(FAQ)リストは、限られた数の質問しか持たないからである。
質問応答生成が可能なモデルは、データの範囲内にある全く新しい質問に答えることができる。
商用アプリケーションでは、顧客満足度と使いやすさを高めるために使用することができる。
しかし、多くのデータは人間によって生成されるため、ヒューマンエラーの影響を受けやすく、モデルの性能に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-11-27T03:17:09Z) - Counterfactual Explanation Generation with s(CASP) [2.249916681499244]
意思決定を自動化する機械学習モデルは、ローンの承認、プレトライアルの保釈、雇用など、連続した分野での利用が増えている。
残念なことに、これらのモデルのほとんどはブラックボックス(ブラックボックス)である。
本稿では, 逆実説明を自動生成する後者の問題に焦点をあてる。
論文 参考訳(メタデータ) (2023-10-23T02:05:42Z) - QACHECK: A Demonstration System for Question-Guided Multi-Hop
Fact-Checking [68.06355980166053]
本稿では,質問誘導型マルチホップFact-Checking(QACHECK)システムを提案する。
クレームの検証に批判的な一連の質問をすることで、モデルの推論プロセスを導く。
各質問を支持する証拠の源となり、透明で説明可能な、ユーザフレンドリーな事実チェックプロセスが育まれます。
論文 参考訳(メタデータ) (2023-10-11T15:51:53Z) - Measuring and Narrowing the Compositionality Gap in Language Models [116.5228850227024]
モデルがすべてのサブプロブレムに正しく答えられる頻度を計測するが、全体の解は生成しない。
我々は,思考の連鎖をさらに改善する新たな手法である自己認識法を提案する。
論文 参考訳(メタデータ) (2022-10-07T06:50:23Z) - Ask to Know More: Generating Counterfactual Explanations for Fake Claims [11.135087647482145]
本稿では,あるニュースがなぜ偽物と認識されたのかを理解するために,事実チェック予測を反実的説明を用いて解明することを提案する。
この研究では、偽ニュースの反実的な説明を生成するには、良い質問、矛盾の発見、適切な推論の3つのステップがある。
以上の結果から,提案手法は最先端の手法と比較して,最も有用な説明が得られたことが示唆された。
論文 参考訳(メタデータ) (2022-06-10T04:42:00Z) - Generating Literal and Implied Subquestions to Fact-check Complex Claims [64.81832149826035]
我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
論文 参考訳(メタデータ) (2022-05-14T00:40:57Z) - Single-Turn Debate Does Not Help Humans Answer Hard
Reading-Comprehension Questions [29.932543276414602]
議論スタイルのセットアップにおいて、正しい答えオプションと間違った回答オプションの両方に対して、単一の引数のデータセットを構築します。
私たちは長いコンテキストを使用します -- コンテキストに精通した人間は、事前に選択された正解と誤解に対する説得力のある説明を書きます。
これらの説明によって、完全な文脈を読まない人間が正しい答えをより正確に決定できるかどうかをテストする。
論文 参考訳(メタデータ) (2022-04-11T15:56:34Z) - FaVIQ: FAct Verification from Information-seeking Questions [77.7067957445298]
実ユーザによる情報探索質問を用いて,ファVIQと呼ばれる大規模事実検証データセットを構築した。
我々の主張は自然であると証明され、語彙バイアスがほとんどなく、検証の証拠を完全に理解する必要がある。
論文 参考訳(メタデータ) (2021-07-05T17:31:44Z) - Generating Fact Checking Explanations [52.879658637466605]
まだ欠けているパズルの重要なピースは、プロセスの最も精巧な部分を自動化する方法を理解することです。
本稿では、これらの説明を利用可能なクレームコンテキストに基づいて自動生成する方法について、最初の研究を行う。
この結果から,個別に学習するのではなく,両目標を同時に最適化することで,事実確認システムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-13T05:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。