論文の概要: Impact of Feature Encoding on Malware Classification Explainability
- arxiv url: http://arxiv.org/abs/2307.05614v1
- Date: Mon, 10 Jul 2023 23:58:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 15:55:30.573420
- Title: Impact of Feature Encoding on Malware Classification Explainability
- Title(参考訳): 特徴エンコーディングがマルウェア分類説明性に及ぼす影響
- Authors: Elyes Manai, Mohamed Mejri and Jaouhar Fattahi
- Abstract要約: 本稿では,特徴符号化技術がXAI(Explainable Artificial Intelligence)アルゴリズムの説明可能性に与える影響について検討する。
Label の代わりに OHE を用いた場合, 限界性能低下がみられた。
これらの知見は,XAI研究における特徴符号化技術の重要性を強調し,さらなる探究の可能性を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the impact of feature encoding techniques on the
explainability of XAI (Explainable Artificial Intelligence) algorithms. Using a
malware classification dataset, we trained an XGBoost model and compared the
performance of two feature encoding methods: Label Encoding (LE) and One Hot
Encoding (OHE). Our findings reveal a marginal performance loss when using OHE
instead of LE. However, the more detailed explanations provided by OHE
compensated for this loss. We observed that OHE enables deeper exploration of
details in both global and local contexts, facilitating more comprehensive
answers. Additionally, we observed that using OHE resulted in smaller
explanation files and reduced analysis time for human analysts. These findings
emphasize the significance of considering feature encoding techniques in XAI
research and suggest potential for further exploration by incorporating
additional encoding methods and innovative visualization approaches.
- Abstract(参考訳): 本稿では,特徴符号化技術がXAI(Explainable Artificial Intelligence)アルゴリズムの説明可能性に与える影響について検討する。
マルウェア分類データセットを用いてXGBoostモデルを訓練し、ラベルエンコーディング(LE)とOne Hot Encoding(OHE)の2つの特徴符号化手法の性能を比較した。
LEの代わりにOHEを用いた場合, 限界性能低下が認められた。
しかし、OHEが提供するより詳細な説明はこの損失を補った。
oheは、グローバルとローカルの両方のコンテキストで詳細を深く探究し、より包括的な回答を促進する。
また,OHEの使用により説明ファイルが小さくなり,分析時間が短縮されることがわかった。
これらの知見は,XAI研究における特徴符号化技術を検討することの重要性を強調し,新たな符号化手法と革新的な可視化手法を取り入れることで,さらなる探索の可能性を提案する。
関連論文リスト
- TG-LLaVA: Text Guided LLaVA via Learnable Latent Embeddings [61.9257731511557]
視覚言語モデル(VLM)を最適化するためのテキストガイド付きLLaVA(TG-LLaVA)を提案する。
学習可能な潜伏埋め込みをブリッジとして使用し、テキスト命令を分析し、視覚エンコーダに解析結果をガイダンスとして付加する。
テキストのガイダンスによって、視覚エンコーダは、人間が質問を考えるとき、画像の最も関連性の高い部分に集中する方法と同様に、テキスト関連の特徴を抽出することができる。
論文 参考訳(メタデータ) (2024-09-15T00:38:34Z) - Interpreting Outliers in Time Series Data through Decoding Autoencoder [2.156170153103442]
本研究は、ドイツの自動車供給産業における時系列データの製造に焦点をあてる。
我々はオートエンコーダを用いて時系列全体を圧縮し,その潜在特徴に異常検出技術を適用する。
論文 参考訳(メタデータ) (2024-09-03T08:52:21Z) - Interpretable Anomaly Detection in Cellular Networks by Learning
Concepts in Variational Autoencoders [8.612111588129167]
本稿では,セルラーネットワーク内の異常を解釈可能な方法で検出する上での課題について述べる。
本稿では,データセット内のキーパフォーマンス指標(KPI)ごとに潜在空間の解釈可能な表現を学習する可変オートエンコーダ(VAE)を用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-28T05:50:17Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Tram: A Token-level Retrieval-augmented Mechanism for Source Code Summarization [76.57699934689468]
ニューラルモデルの性能を高めるために,デコーダ側で詳細なTokenレベル検索強化機構(Tram)を提案する。
文脈的コードセマンティクスの取得におけるトークンレベルの検索の課題を克服するために,コードセマンティクスを個々の要約トークンに統合することを提案する。
論文 参考訳(メタデータ) (2023-05-18T16:02:04Z) - An Analysis of the Effects of Decoding Algorithms on Fairness in
Open-Ended Language Generation [77.44921096644698]
本稿では,復号化アルゴリズムがLMフェアネスに与える影響を体系的に分析する。
公平さ、多様性、品質のトレードオフを分析します。
論文 参考訳(メタデータ) (2022-10-07T21:33:34Z) - Evaluating Explainable Artificial Intelligence Methods for Multi-label
Deep Learning Classification Tasks in Remote Sensing [0.0]
ベンチマークデータセットで最先端のパフォーマンスを持つディープラーニングモデルを開発した。
モデル予測の理解と解釈に10のXAI手法が用いられた。
Occlusion、Grad-CAM、Limeは、最も解釈可能で信頼性の高いXAIメソッドでした。
論文 参考訳(メタデータ) (2021-04-03T11:13:14Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Understanding and Diagnosing Vulnerability under Adversarial Attacks [62.661498155101654]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,潜在変数の分類に使用される特徴を説明するために,新しい解釈可能性手法であるInterpretGANを提案する。
また、各層がもたらす脆弱性を定量化する最初の診断方法も設計する。
論文 参考訳(メタデータ) (2020-07-17T01:56:28Z) - Visualisation and knowledge discovery from interpretable models [0.0]
欠落した値も扱える本質的な解釈可能なモデルをいくつか紹介する。
合成データセットと実世界のデータセットでアルゴリズムを実証した。
論文 参考訳(メタデータ) (2020-05-07T17:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。