論文の概要: An Explainable XGBoost-based Approach on Assessing Detection of Deception and Disinformation
- arxiv url: http://arxiv.org/abs/2405.18596v1
- Date: Tue, 28 May 2024 21:16:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 21:43:38.588907
- Title: An Explainable XGBoost-based Approach on Assessing Detection of Deception and Disinformation
- Title(参考訳): 説明可能なXGBoostに基づく偽情報・偽情報検出手法
- Authors: Alex V Mbaziira, Maha F Sabir,
- Abstract要約: 我々は, 虚偽やサイバー犯罪に関連する心理言語学および計算言語学のプロセスを用いて, 偽情報の検出に関する先行研究を拡張した。
我々は、偽情報や詐欺、偽陽性、否定的なオンラインレビュー、詐欺などに基づいて訓練されたハイブリッドモデルにおいて、偽情報の偽造パターンを判定しようとする。
4種類のハイブリッドモデルは,75%から85%の予測精度で偽情報や偽情報を検出した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Threat actors continue to exploit geopolitical and global public events launch aggressive campaigns propagating disinformation over the Internet. In this paper we extend our prior research in detecting disinformation using psycholinguistic and computational linguistic processes linked to deception and cybercrime to gain an understanding of the features impact the predictive outcome of machine learning models. In this paper we attempt to determine patterns of deception in disinformation in hybrid models trained on disinformation and scams, fake positive and negative online reviews, or fraud using the eXtreme Gradient Boosting machine learning algorithm. Four hybrid models are generated which are models trained on disinformation and fraud (DIS+EN), disinformation and scams (DIS+FB), disinformation and favorable fake reviews (DIS+POS) and disinformation and unfavorable fake reviews (DIS+NEG). The four hybrid models detected deception and disinformation with predictive accuracies ranging from 75% to 85%. The outcome of the models was evaluated with SHAP to determine the impact of the features.
- Abstract(参考訳): 脅威のある俳優は、地政学的およびグローバルな公開イベントを引き続き利用し続け、インターネット上で偽情報を広める攻撃的なキャンペーンを展開している。
本稿では,虚偽とサイバー犯罪に関連する心理言語学および計算言語学のプロセスを用いた偽情報検出の先行研究を拡張し,機械学習モデルの予測結果に影響を及ぼす特徴について理解を深める。
本稿では,eXtreme Gradient Boosting 機械学習アルゴリズムを用いて,偽情報・詐欺・偽陽性・否定的オンラインレビュー・詐欺を訓練したハイブリッドモデルにおいて,偽情報の偽造パターンを決定することを試みる。
4つのハイブリッドモデルは、偽情報と詐欺(DIS+EN)、偽情報と詐欺(DIS+FB)、偽情報と好ましくない偽レビュー(DIS+POS)、偽情報と好ましくない偽レビュー(DIS+NEG)に基づいて訓練されたモデルを生成する。
4種類のハイブリッドモデルは,75%から85%の予測精度で偽情報や偽情報を検出した。
モデルの結果をSHAPで評価し,特徴の影響を判定した。
関連論文リスト
- Evaluating the Propensity of Generative AI for Producing Disinformation During an Election Cycle [0.0]
本研究では、選挙期間中に有害な偽情報を生成するために、現在の生成AIモデルの妥当性について検討する。
コピロとジェミニは、予想される最低限の損害に気付き、全体的な安全性能に結びついていることが判明した。
敵対的役割の特徴が発見され 全てのモデルに より大きな害をもたらすことが判明しました
論文 参考訳(メタデータ) (2024-11-09T09:03:08Z) - Impact of Fake News on Social Media Towards Public Users of Different Age Groups [0.0]
本研究では,偽ニュースがソーシャルメディア利用者にどのような影響を及ぼすかを検討した。
偽ニュースの識別・分類における機械学習モデルの有効性について検討した。
論文 参考訳(メタデータ) (2024-11-08T15:32:20Z) - Data augmentation and explainability for bias discovery and mitigation
in deep learning [0.0]
この論文は、ディープニューラルネットワークにおけるバイアスの影響を調査し、モデルパフォーマンスへの影響を減らす方法を提案する。
最初の部分は、データやモデルのバイアスやエラーの潜在的な原因を分類し、記述することから始まり、特に機械学習パイプラインのバイアスに焦点を当てている。
次の章では、予測と制御を正当化し、モデルを改善する手段として、説明可能なAIの分類と方法について概説する。
論文 参考訳(メタデータ) (2023-08-18T11:02:27Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Attacking Open-domain Question Answering by Injecting Misinformation [116.25434773461465]
質問応答モデル(QA)に対する誤報のリスクについて,オープンドメインQAモデルの誤報文書に対する感度について検討した。
実験により、QAモデルは誤情報による少量の証拠汚染に対して脆弱であることが示されている。
質問応答と誤情報検出を統合した誤情報認識型QAシステムの構築の必要性について論じる。
論文 参考訳(メタデータ) (2021-10-15T01:55:18Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Learning Models for Actionable Recourse [31.30850378503406]
本研究では, リスクの高い個人に対して, 精度を犠牲にすることなく, 理論的に言論を保証するアルゴリズムを提案する。
実データに対する広範な実験により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-11-12T01:15:18Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。