論文の概要: Through the Static: Demystifying Malware Visualization via Explainability
- arxiv url: http://arxiv.org/abs/2503.02441v1
- Date: Tue, 04 Mar 2025 09:38:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:12:36.571421
- Title: Through the Static: Demystifying Malware Visualization via Explainability
- Title(参考訳): 静的:説明可能性によるマルウェアの可視化の謎化
- Authors: Matteo Brosolo, Vinod Puthuvath, Mauro Conti,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)の堅牢性と説明可能性について検討する。
本研究は,6つのCNNモデルを複製し,その落とし穴を探索することによって,これらのギャップに対処する。
このアプローチは、データセット全体で2%から8%のF1スコアを大幅に改善する。
- 参考スコア(独自算出の注目度): 15.43868945929965
- License:
- Abstract: Security researchers grapple with the surge of malicious files, necessitating swift identification and classification of malware strains for effective protection. Visual classifiers and in particular Convolutional Neural Networks (CNNs) have emerged as vital tools for this task. However, issues of robustness and explainability, common in other high risk domain like medicine and autonomous vehicles, remain understudied in current literature. Although deep learning visualization classifiers presented in research obtain great results without the need for expert feature extraction, they have not been properly studied in terms of their replicability. Additionally, the literature is not clear on how these types of classifiers arrive to their answers. Our study addresses these gaps by replicating six CNN models and exploring their pitfalls. We employ Class Activation Maps (CAMs), like GradCAM and HiResCAM, to assess model explainability. We evaluate the CNNs' performance and interpretability on two standard datasets, MalImg and Big2015, and a newly created called VX-Zoo. We employ these different CAM techniques to gauge the explainability of each of the models. With these tools, we investigate the underlying factors contributing to different interpretations of inputs across the different models, empowering human researchers to discern patterns crucial for identifying distinct malware families and explain why CNN models arrive at their conclusions. Other then highlighting the patterns found in the interpretability study, we employ the extracted heatmpas to enhance Visual Transformers classifiers' performance and explanation quality. This approach yields substantial improvements in F1 score, ranging from 2% to 8%, across the datasets compared to benchmark values.
- Abstract(参考訳): セキュリティ研究者は、悪意のあるファイルの急増、迅速な識別、効果的な保護のためのマルウェア株の分類を必要としている。
視覚分類器、特に畳み込みニューラルネットワーク(CNN)がこのタスクに不可欠なツールとして登場した。
しかし、医療や自動運転車といった他の高リスク領域でよく見られる堅牢性や説明可能性の問題については、現在も研究が続けられている。
提案する深層学習可視化分類器は, 専門家による特徴抽出を必要とせず, 優れた結果が得られるが, 再現性の観点からは, 十分に研究されていない。
さらに、これらの分類器がどのようにして答えを得るかについては、文献では明らかになっていない。
本研究は,6つのCNNモデルを複製し,その落とし穴を探索することによって,これらのギャップに対処する。
GradCAMやHiResCAMのようなクラスアクティベーションマップ(CAM)を使用して、モデル説明可能性を評価します。
The CNNs's performance and interpretability on two standard data, MalImg and Big2015, and a new created called VX-Zoo。
我々はこれらの異なるCAM手法を用いて、それぞれのモデルの説明可能性を評価する。
これらのツールを用いて、異なるモデルにまたがる入力の異なる解釈に寄与する要因を解明し、人間の研究者に異なるマルウェアファミリーを特定するのに不可欠なパターンを識別させ、CNNモデルが結論に達した理由を説明する。
また,解釈可能性研究で見られるパターンを強調し,抽出したヒートパンを用いて視覚変換器の性能と説明品質を向上させる。
このアプローチは、ベンチマーク値と比較してデータセット全体の2%から8%の範囲で、F1スコアを大幅に改善する。
関連論文リスト
- Shortcut Learning Susceptibility in Vision Classifiers [3.004632712148892]
ショートカット学習は、機械学習モデルが意味のある特徴をキャプチャする代わりに、データの急激な相関を利用する場所である。
この現象は、視覚、自然言語処理、音声認識など、さまざまな機械学習アプリケーションで広く利用されている。
クラスラベルと位置相関するデータセットに意図的にショートカットを導入することで,これらのアーキテクチャを体系的に評価する。
論文 参考訳(メタデータ) (2025-02-13T10:25:52Z) - Undermining Image and Text Classification Algorithms Using Adversarial Attacks [0.0]
本研究は,各種機械学習モデルを訓練し,GANとSMOTEを用いてテキスト分類モデルへの攻撃を目的とした追加データポイントを生成することにより,そのギャップを解消する。
実験の結果,分類モデルの重大な脆弱性が明らかとなった。特に,攻撃後の最上位のテキスト分類モデルの精度が20%低下し,顔認識精度が30%低下した。
論文 参考訳(メタデータ) (2024-11-03T18:44:28Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Eigen-CAM: Class Activation Map using Principal Components [1.2691047660244335]
この論文は、解釈可能で堅牢で透明なモデルに対する需要の増加に対応するために、従来の考え方に基づいている。
提案したEigen-CAMは、畳み込み層から学習した特徴/表現の基本的なコンポーネントを計算し、視覚化する。
論文 参考訳(メタデータ) (2020-08-01T17:14:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。