論文の概要: Automatic Claim Review for Climate Science via Explanation Generation
- arxiv url: http://arxiv.org/abs/2107.14740v1
- Date: Fri, 30 Jul 2021 16:37:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-02 14:16:06.143885
- Title: Automatic Claim Review for Climate Science via Explanation Generation
- Title(参考訳): 説明生成による気候科学の自動クレームレビュー
- Authors: Shraey Bhatia, Jey Han Lau, Timothy Baldwin
- Abstract要約: 科学者や専門家は、これらの主張に対して手書きのフィードバックを提供することで、この問題に対処しようとしています。
我々は,外部知識から抽出したサポートパスを付加したデコーダの融合を,オープンドメイン質問応答に用いたアプローチを展開した。
我々は、異なる知識源、検索者、検索者深さを実験し、少数の高品質な手書き説明であっても、優れた説明を生成するのに役立つことを実証した。
- 参考スコア(独自算出の注目度): 33.44370581827454
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is unison is the scientific community about human induced climate
change. Despite this, we see the web awash with claims around climate change
scepticism, thus driving the need for fact checking them but at the same time
providing an explanation and justification for the fact check. Scientists and
experts have been trying to address it by providing manually written feedback
for these claims. In this paper, we try to aid them by automating generating
explanation for a predicted veracity label for a claim by deploying the
approach used in open domain question answering of a fusion in decoder
augmented with retrieved supporting passages from an external knowledge. We
experiment with different knowledge sources, retrievers, retriever depths and
demonstrate that even a small number of high quality manually written
explanations can help us in generating good explanations.
- Abstract(参考訳): 人間による気候変動に関する科学的なコミュニティはユニゾンがある。
それにもかかわらず、webには気候変動懐疑論に関する主張が溢れており、事実チェックの必要性は高まっているが、同時に事実チェックの説明と正当化を提供している。
科学者や専門家は、これらの主張に対して手書きのフィードバックを提供することで、この問題に対処しようとしています。
本稿では,外部知識から抽出したサポートパスを付加したデコーダの融合処理において,オープンドメイン質問応答に使用されるアプローチを展開させることにより,クレームの予測精度ラベルに対する説明の自動生成を試みている。
私たちは、異なる知識ソース、レトリバー、レトリバーの深さで実験し、少数の高品質な手作業による説明でさえ、良い説明を生み出すのに役立つことを証明します。
関連論文リスト
- Contrastive Learning to Improve Retrieval for Real-world Fact Checking [84.57583869042791]
ファクト・チェッキング・リランカ(Contrastive Fact-Checking Reranker, CFR)を提案する。
我々はAVeriTeCデータセットを活用し、証拠文書からの人間による回答とクレームのサブクエストを注釈付けする。
データセットの精度は6%向上した。
論文 参考訳(メタデータ) (2024-10-07T00:09:50Z) - Evaluating Evidence Attribution in Generated Fact Checking Explanations [48.776087871960584]
生成した説明文の属性品質を評価するために,新しい評価プロトコル,引用マスキングとリカバリを導入する。
実験により、最高の性能を持つLSMは、不正確な属性を持つ説明を生成することが明らかとなった。
より良い説明を生み出すには人為的な証拠が不可欠である。
論文 参考訳(メタデータ) (2024-06-18T14:13:13Z) - Detecting Fallacies in Climate Misinformation: A Technocognitive Approach to Identifying Misleading Argumentation [0.6496783221842394]
我々は、異なる種類の気候の誤報を誤報の推論にマッピングするデータセットを開発する。
このデータセットは、気候の誤報の誤報を検出するためにモデルをトレーニングするために使用される。
論文 参考訳(メタデータ) (2024-05-14T01:01:44Z) - Automated Fact-Checking of Climate Change Claims with Large Language
Models [3.1080484250243425]
本稿では、気候変動の主張の事実チェックを自動化するために設計された、新しいAIベースのツールであるCliminatorを提案する。
Climinatorは、様々な科学的視点を合成するために、革新的なMediator-Advocateフレームワークを使用している。
我々のモデルは、気候フィードバックと懐疑的な科学から収集されたクレームをテストする際に、顕著な精度を示す。
論文 参考訳(メタデータ) (2024-01-23T08:49:23Z) - QACHECK: A Demonstration System for Question-Guided Multi-Hop
Fact-Checking [68.06355980166053]
本稿では,質問誘導型マルチホップFact-Checking(QACHECK)システムを提案する。
クレームの検証に批判的な一連の質問をすることで、モデルの推論プロセスを導く。
各質問を支持する証拠の源となり、透明で説明可能な、ユーザフレンドリーな事実チェックプロセスが育まれます。
論文 参考訳(メタデータ) (2023-10-11T15:51:53Z) - Ask to Know More: Generating Counterfactual Explanations for Fake Claims [11.135087647482145]
本稿では,あるニュースがなぜ偽物と認識されたのかを理解するために,事実チェック予測を反実的説明を用いて解明することを提案する。
この研究では、偽ニュースの反実的な説明を生成するには、良い質問、矛盾の発見、適切な推論の3つのステップがある。
以上の結果から,提案手法は最先端の手法と比較して,最も有用な説明が得られたことが示唆された。
論文 参考訳(メタデータ) (2022-06-10T04:42:00Z) - Generating Literal and Implied Subquestions to Fact-check Complex Claims [64.81832149826035]
我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
論文 参考訳(メタデータ) (2022-05-14T00:40:57Z) - SciClops: Detecting and Contextualizing Scientific Claims for Assisting
Manual Fact-Checking [7.507186058512835]
本稿では,オンライン科学の誤報に対処する手法であるSciClopsについて述べる。
SciClopsは、オンラインニュース記事やソーシャルメディア投稿に見られる科学的主張を処理するための3つの主要なステップを含んでいる。
複雑な科学的クレームの検証において、非専門家のファクトチェックを効果的に支援し、商業的なファクトチェックシステムより優れている。
論文 参考訳(メタデータ) (2021-10-25T16:35:58Z) - Explainable Fact-checking through Question Answering [17.1138216746642]
我々は,クレームから質問や回答を生成し,証拠から同じ質問に答えることを提案する。
また,各質問にアテンション機構を付加した回答比較モデルを提案する。
実験結果から,提案モデルが合理的に説明可能な機能を提供しながら,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-10-11T15:55:11Z) - Fact or Fiction: Verifying Scientific Claims [53.29101835904273]
本稿では,研究文献から,REFUTESやREFUTESが与えられた科学的主張であることを示す証拠を含む抄録を抽出する新たな課題である,科学的クレーム検証を紹介する。
SciFactは、1.4Kの専門家による科学的主張と、ラベルや合理性に注釈を付けたエビデンスを含む抽象概念を組み合わせたデータセットである。
このシステムは,CORD-19コーパスの証拠を同定することにより,新型コロナウイルス関連クレームを検証可能であることを示す。
論文 参考訳(メタデータ) (2020-04-30T17:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。