論文の概要: TELLER: A Trustworthy Framework for Explainable, Generalizable and
Controllable Fake News Detection
- arxiv url: http://arxiv.org/abs/2402.07776v1
- Date: Mon, 12 Feb 2024 16:41:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 13:45:22.560168
- Title: TELLER: A Trustworthy Framework for Explainable, Generalizable and
Controllable Fake News Detection
- Title(参考訳): teller: 説明、一般化、制御可能な偽ニュース検出のための信頼できるフレームワーク
- Authors: Hui Liu, Wenya Wang, Haoru Li, Haoliang Li
- Abstract要約: 本稿では,モデルの説明可能性,一般化性,制御性を重視した,信頼に値する偽ニュース検出のための新しいフレームワークを提案する。
これは認知と意思決定システムを統合するデュアルシステムフレームワークによって実現される。
提案手法の有効性と信頼性を実証し,4つのデータセットに対する総合的な評価結果を示す。
- 参考スコア(独自算出の注目度): 40.851213962307206
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of fake news has emerged as a severe societal problem,
raising significant interest from industry and academia. While existing
deep-learning based methods have made progress in detecting fake news
accurately, their reliability may be compromised caused by the non-transparent
reasoning processes, poor generalization abilities and inherent risks of
integration with large language models (LLMs). To address this challenge, we
propose {\methodname}, a novel framework for trustworthy fake news detection
that prioritizes explainability, generalizability and controllability of
models. This is achieved via a dual-system framework that integrates cognition
and decision systems, adhering to the principles above. The cognition system
harnesses human expertise to generate logical predicates, which guide LLMs in
generating human-readable logic atoms. Meanwhile, the decision system deduces
generalizable logic rules to aggregate these atoms, enabling the identification
of the truthfulness of the input news across diverse domains and enhancing
transparency in the decision-making process. Finally, we present comprehensive
evaluation results on four datasets, demonstrating the feasibility and
trustworthiness of our proposed framework. Our implementation is available at
\url{https://github.com/less-and-less-bugs/Trust_TELLER}.
- Abstract(参考訳): 偽ニュースの拡散は深刻な社会問題として現れ、産業や学界から大きな関心を集めている。
既存のディープラーニングに基づく手法では、偽ニュースの正確な検出が進んでいるが、その信頼性は、非透明な推論プロセス、一般化能力の欠如、大型言語モデル(LLM)との統合の固有のリスクによって損なわれる可能性がある。
この課題に対処するため,我々は,モデルの説明可能性,一般化性,制御性を優先する,信頼性の高い偽ニュース検出のための新しいフレームワークである {\methodname} を提案する。
これは認知と意思決定システムを統合したデュアルシステムフレームワークによって実現され、上記の原則に準拠している。
認知システムは人間の専門知識を活用して論理述語を生成する。
一方、決定システムは、これらの原子を集約する一般化可能な論理則を導出し、様々な領域にわたる入力ニュースの真偽を識別し、意思決定プロセスにおける透明性を高める。
最後に,4つのデータセットについて総合的な評価結果を示し,提案手法の有効性と信頼性を示す。
我々の実装は \url{https://github.com/less-and-less-bugs/Trust_TELLER} で利用可能です。
関連論文リスト
- FakeNewsGPT4: Advancing Multimodal Fake News Detection through
Knowledge-Augmented LVLMs [50.13829380113614]
本稿では,大規模視覚言語モデル(Large Vision-Language Models)を,操作推論のためのフォージェリ固有の知識で拡張する新しいフレームワークを提案する。
FakeNewsGPT4は、以前の方法よりも優れたクロスドメインパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-04T12:35:09Z) - Building Trustworthy NeuroSymbolic AI Systems: Consistency, Reliability,
Explainability, and Safety [11.933469815219544]
我々は、NeuroSymbolicメソッド上で、一貫性、信頼性、ユーザレベルの説明可能性、安全性がどのように構築されているかを示すCRESTフレームワークを紹介します。
この記事では、CRESTフレームワーク内で選択されたAIシステムとして、Large Language Models(LLM)に焦点を当てる。
論文 参考訳(メタデータ) (2023-12-05T06:13:55Z) - Understanding and Enhancing Robustness of Concept-based Models [41.20004311158688]
対向摂動に対する概念ベースモデルの堅牢性について検討する。
本稿では、まず、概念ベースモデルのセキュリティ脆弱性を評価するために、さまざまな悪意ある攻撃を提案し、分析する。
そこで我々は,これらのシステムのロバスト性を高めるための,汎用的対人訓練に基づく防御機構を提案する。
論文 参考訳(メタデータ) (2022-11-29T10:43:51Z) - Evaluate Confidence Instead of Perplexity for Zero-shot Commonsense
Reasoning [85.1541170468617]
本稿では,コモンセンス推論の性質を再考し,新しいコモンセンス推論尺度であるNon-Replacement Confidence(NRC)を提案する。
提案手法は,2つのコモンセンス推論ベンチマークデータセットと,さらに7つのコモンセンス質問応答データセットに対してゼロショット性能を向上する。
論文 参考訳(メタデータ) (2022-08-23T14:42:14Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - A Conceptual Framework for Establishing Trust in Real World Intelligent
Systems [0.0]
アルゴリズムの信頼は、ユーザーがシステムと対話できるようにすることで確立できます。
アルゴリズム結果に対するドメインの人間の理解の特徴とパターンを反映することで、そのようなパターンに対する認識を生み出すことができる。
閉じた検査を使用して、ソリューションが期待に合致するかどうか、または期待を超えるかどうかを判断できます。
論文 参考訳(メタデータ) (2021-04-12T12:58:47Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。