論文の概要: Trust Oriented Explainable AI for Fake News Detection
- arxiv url: http://arxiv.org/abs/2603.11778v1
- Date: Thu, 12 Mar 2026 10:37:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.018052
- Title: Trust Oriented Explainable AI for Fake News Detection
- Title(参考訳): フェイクニュース検出のための信頼指向型説明可能なAI
- Authors: Krzysztof Siwek, Daniel Stankowski, Maciej Stodolski,
- Abstract要約: 本稿では,NLPに基づく偽ニュース検出における説明可能な人工知能(XAI)の適用について検討する。
この研究は、偽情報、ニューラルネットワークアーキテクチャ、XAI技術の主要な側面を概説し、SHAP、LIME、統合勾配に焦点を当てている。
その結果,XAIは高い検出精度を維持しつつ,モデルの透明性と解釈可能性を向上させることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article examines the application of Explainable Artificial Intelligence (XAI) in NLP based fake news detection and compares selected interpretability methods. The work outlines key aspects of disinformation, neural network architectures, and XAI techniques, with a focus on SHAP, LIME, and Integrated Gradients. In the experimental study, classification models were implemented and interpreted using these methods. The results show that XAI enhances model transparency and interpretability while maintaining high detection accuracy. Each method provides distinct explanatory value: SHAP offers detailed local attributions, LIME provides simple and intuitive explanations, and Integrated Gradients performs efficiently with convolutional models. The study also highlights limitations such as computational cost and sensitivity to parameterization. Overall, the findings demonstrate that integrating XAI with NLP is an effective approach to improving the reliability and trustworthiness of fake news detection systems.
- Abstract(参考訳): 本稿では、NLPに基づく偽ニュース検出における説明可能な人工知能(XAI)の適用について検討し、選択した解釈可能性法との比較を行う。
この研究は、偽情報、ニューラルネットワークアーキテクチャ、XAI技術の主要な側面を概説し、SHAP、LIME、統合勾配に焦点を当てている。
実験では,これらの手法を用いて分類モデルを実装し,解釈した。
その結果,XAIは高い検出精度を維持しつつ,モデルの透明性と解釈可能性を向上させることがわかった。
SHAPは詳細なローカル属性を提供し、LIMEは単純で直感的な説明を提供し、Integrated Gradientsは畳み込みモデルで効率的に機能する。
この研究は、計算コストやパラメータ化に対する感度といった制限も強調している。
以上の結果から,XAIとNLPの統合は,偽ニュース検出システムの信頼性と信頼性向上に有効な手法であることが示唆された。
関連論文リスト
- Learning to Explore: Policy-Guided Outlier Synthesis for Graph Out-of-Distribution Detection [51.93878677594561]
教師なしグラフレベルのOOD検出では、モデルは通常、IDデータのみを使用して訓練される。
本稿では,スタティックスを学習した探索戦略に置き換える政策誘導型アウトリア合成フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-28T11:40:18Z) - Revisiting Logit Distributions for Reliable Out-of-Distribution Detection [73.9121001113687]
アウト・オブ・ディストリビューション(OOD)検出は、オープンワールドアプリケーションにおけるディープラーニングモデルの信頼性を保証するために重要である。
LogitGapは、最大ロジットと残りのロジットの関係を利用する、ポストホックなOOD検出手法である。
我々は、LogitGapが様々なOOD検出シナリオとベンチマークにわたって、最先端のパフォーマンスを一貫して達成していることを示す。
論文 参考訳(メタデータ) (2025-10-23T02:16:45Z) - SCENE: Evaluating Explainable AI Techniques Using Soft Counterfactuals [0.0]
本稿では,新たな評価手法であるSCENE(Soft Counterfactual Evaluation for Natural Language Explainability)を紹介する。
トークンベースの置換に焦点を当てることで、SCENEは文脈的に適切で意味論的に意味のあるソフトカウンタブルを作成する。
SCENEは様々なXAI技法の強みと限界についての貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-08-08T16:36:24Z) - Robustness of Explainable Artificial Intelligence in Industrial Process Modelling [43.388607981317016]
我々は,地中真実シミュレーションと感度解析に基づいて,現在のXAI手法を評価する。
モデル化された産業プロセスの真の感度を正確に予測する能力において,XAI法とXAI法の違いを示す。
論文 参考訳(メタデータ) (2024-07-12T09:46:26Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Evaluating Explainable Artificial Intelligence Methods for Multi-label
Deep Learning Classification Tasks in Remote Sensing [0.0]
ベンチマークデータセットで最先端のパフォーマンスを持つディープラーニングモデルを開発した。
モデル予測の理解と解釈に10のXAI手法が用いられた。
Occlusion、Grad-CAM、Limeは、最も解釈可能で信頼性の高いXAIメソッドでした。
論文 参考訳(メタデータ) (2021-04-03T11:13:14Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。