論文の概要: Explainable Artificial Intelligence to Detect Image Spam Using
Convolutional Neural Network
- arxiv url: http://arxiv.org/abs/2209.03166v1
- Date: Wed, 7 Sep 2022 14:02:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 13:00:41.168597
- Title: Explainable Artificial Intelligence to Detect Image Spam Using
Convolutional Neural Network
- Title(参考訳): 畳み込みニューラルネットワークを用いた画像スパム検出のための説明可能な人工知能
- Authors: Zhibo Zhang, Ernesto Damiani, Hussam Al Hamadi, Chan Yeob Yeun, Fatma
Taher
- Abstract要約: 本研究では、畳み込みニューラルネットワーク(CNN)アルゴリズムと説明可能な人工知能(XAI)アルゴリズムを用いて、スパム画像を検出するための説明可能なフレームワークを提案する。
実験の結果,提案フレームワークは性能指標の相違から良好な検出結果を得た。
- 参考スコア(独自算出の注目度): 5.182080825408661
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image spam threat detection has continually been a popular area of research
with the internet's phenomenal expansion. This research presents an explainable
framework for detecting spam images using Convolutional Neural Network(CNN)
algorithms and Explainable Artificial Intelligence (XAI) algorithms. In this
work, we use CNN model to classify image spam respectively whereas the post-hoc
XAI methods including Local Interpretable Model Agnostic Explanation (LIME) and
Shapley Additive Explanations (SHAP) were deployed to provide explanations for
the decisions that the black-box CNN models made about spam image detection. We
train and then evaluate the performance of the proposed approach on a 6636
image dataset including spam images and normal images collected from three
different publicly available email corpora. The experimental results show that
the proposed framework achieved satisfactory detection results in terms of
different performance metrics whereas the model-independent XAI algorithms
could provide explanations for the decisions of different models which could be
utilized for comparison for the future study.
- Abstract(参考訳): 画像スパムの脅威検出は、インターネットの驚くべき拡張に関して、常に人気のある研究領域である。
本研究では,畳み込みニューラルネットワーク(cnn)と説明可能な人工知能(xai)アルゴリズムを用いて,スパム画像を検出するためのフレームワークを提案する。
本研究では,CNNモデルを用いて画像スパムを分類するのに対し,ローカル解釈可能なモデルAgnostic Explanation (LIME) やShapley Additive Explanations (SHAP) といったポストホックなXAI手法は,ブラックボックスCNNモデルがスパム画像検出に関する決定を下すために使用される。
3種類の公開メールコーパスから収集したスパム画像と通常の画像を含む6636画像データセット上で,提案手法の性能を訓練し,評価した。
実験の結果, 提案手法は, 異なる性能指標を用いて十分な検出結果を得たが, モデル非依存のxaiアルゴリズムは, 今後の比較に利用可能な異なるモデルの決定のための説明を提供することができた。
関連論文リスト
- Underwater SONAR Image Classification and Analysis using LIME-based Explainable Artificial Intelligence [0.0]
本稿では,水中画像分類結果の解釈に,eXplainable Artificial Intelligence (XAI)ツールの適用について検討する。
ベンチマーク畳み込みニューラルネットワーク(CNN)アーキテクチャを用いた画像分類のための転写学習手法の広範な解析を行う。
XAIのテクニックは、結果の解釈可能性をより人間に準拠した方法で強調することで、信頼性と信頼性を高めます。
論文 参考訳(メタデータ) (2024-08-23T04:54:18Z) - Advancing Post Hoc Case Based Explanation with Feature Highlighting [0.8287206589886881]
テスト画像中の複数の明瞭な特徴部分を分離し、トレーニングデータに見られる説明事例に接続する2つの一般的なアルゴリズムを提案する。
提案手法は,実世界データにおける曖昧な分類に対して,ユーザの「正確さ」感を適切に校正することを示す。
論文 参考訳(メタデータ) (2023-11-06T16:34:48Z) - Extending CAM-based XAI methods for Remote Sensing Imagery Segmentation [7.735470452949379]
我々は,モデルの不確実性を測定するために,「エントロピー」に基づく新しいXAI評価手法とメトリクスを導入する。
本研究では,Entropyを用いて,対象クラス内の画素のセグメンテーションにおけるモデル不確実性を監視することがより適切であることを示す。
論文 参考訳(メタデータ) (2023-10-03T07:01:23Z) - Why do CNNs excel at feature extraction? A mathematical explanation [53.807657273043446]
実世界のデータセットに似た画像を生成するのに使用できる特徴抽出に基づく画像分類の新しいモデルを提案する。
本研究では,特徴の存在を検知する一方向線形関数を構築し,畳み込みネットワークで実現可能であることを示す。
論文 参考訳(メタデータ) (2023-07-03T10:41:34Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - Segmentation of Roads in Satellite Images using specially modified U-Net
CNNs [0.0]
本研究の目的は,道路画像の特定を行う都市景観の衛星画像の分類器を構築することである。
従来のコンピュータビジョンアルゴリズムとは異なり、畳み込みニューラルネットワーク(CNN)はこのタスクに対して正確で信頼性の高い結果を提供する。
論文 参考訳(メタデータ) (2021-09-29T19:08:32Z) - OSLO: On-the-Sphere Learning for Omnidirectional images and its
application to 360-degree image compression [59.58879331876508]
全方向画像の表現モデルの学習について検討し、全方向画像の深層学習モデルで使用される数学的ツールを再定義するために、HEALPixの球面一様サンプリングの特性を利用することを提案する。
提案したオン・ザ・スフィア・ソリューションは、等方形画像に適用された類似の学習モデルと比較して、13.7%のビットレートを節約できる圧縮ゲインを向上させる。
論文 参考訳(メタデータ) (2021-07-19T22:14:30Z) - On the Post-hoc Explainability of Deep Echo State Networks for Time
Series Forecasting, Image and Video Classification [63.716247731036745]
エコー状態ネットワークは、主に学習アルゴリズムの単純さと計算効率のために、時間を通じて多くのスターを惹きつけてきた。
本研究では,時間系列,画像,映像データを用いた学習タスクに適用した場合のエコー状態ネットワークの説明可能性について検討した。
本研究では,これらの反復モデルが把握した知識に関する理解可能な情報を抽出する3つの手法を提案する。
論文 参考訳(メタデータ) (2021-02-17T08:56:33Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。