論文の概要: Multimodal Techniques for Malware Classification
- arxiv url: http://arxiv.org/abs/2501.10956v1
- Date: Sun, 19 Jan 2025 06:06:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:23:27.659620
- Title: Multimodal Techniques for Malware Classification
- Title(参考訳): マルウェア分類のためのマルチモーダル技術
- Authors: Jonathan Jiang, Mark Stamp,
- Abstract要約: この研究は、Windows Portable Executable (PE) ファイルフォーマットの構造的な性質に基づいている。
我々は,PEヘッダーから抽出した特徴に基づいて,SVM,LSTM,CNNモデルを訓練する。
マルチモーダルモデルの最高性能は、ベースラインケースの最高性能より優れていることが判明した。
- 参考スコア(独自算出の注目度): 1.3812010983144798
- License:
- Abstract: The threat of malware is a serious concern for computer networks and systems, highlighting the need for accurate classification techniques. In this research, we experiment with multimodal machine learning approaches for malware classification, based on the structured nature of the Windows Portable Executable (PE) file format. Specifically, we train Support Vector Machine (SVM), Long Short-Term Memory (LSTM), and Convolutional Neural Network (CNN) models on features extracted from PE headers, we train these same models on features extracted from the other sections of PE files, and train each model on features extracted from the entire PE file. We then train SVM models on each of the nine header-sections combinations of these baseline models, using the output layer probabilities of the component models as feature vectors. We compare the baseline cases to these multimodal combinations. In our experiments, we find that the best of the multimodal models outperforms the best of the baseline cases, indicating that it can be advantageous to train separate models on distinct parts of Windows PE files.
- Abstract(参考訳): マルウェアの脅威はコンピュータネットワークやシステムにとって深刻な懸念であり、正確な分類技術の必要性を強調している。
本研究では,Windows Portable Executable (PE) ファイルフォーマットの構造的性質に基づいて,マルウェア分類のためのマルチモーダル機械学習手法の実験を行った。
具体的には、PEヘッダーから抽出した特徴に基づいて、サポートベクトルマシン(SVM)、Long Short-Term Memory(LSTM)、畳み込みニューラルネットワーク(CNN)モデルを訓練し、PEファイルの他の部分から抽出した特徴に基づいてこれらのモデルを訓練し、PEファイル全体から抽出した特徴に基づいて各モデルを訓練する。
次に、これらのベースラインモデルの9つのヘッダセクションの組み合わせに対して、コンポーネントモデルの出力層確率を特徴ベクトルとして、SVMモデルをトレーニングする。
ベースラインケースとこれらのマルチモーダルの組み合わせを比較します。
実験の結果, マルチモーダルモデルでは, ベースラインモデルよりも優れており, 異なる部分のWindows PEファイル上で, 個別のモデルを訓練することが有利であることが示唆された。
関連論文リスト
- Efficient Supernet Training with Orthogonal Softmax for Scalable ASR Model Compression [43.25633915651986]
我々は、スーパーネットトレーニングを用いて、様々なサイズの複数のエンコーダを共同で訓練し、冗長なトレーニングをすることなく、動的モデルサイズ調整をハードウェア制約に適合させることができる。
我々は,複数のソフトマックス関数を適用して,スーパーネット内の最適点を効率的に同定するOrthoSoftmaxという新しい手法を提案する。
CTC on Librispeech と TED-Lium-v2 による結果から,FLOPs を意識したコンポーネント選択が全体的な性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2025-01-31T05:23:03Z) - VLM2Vec: Training Vision-Language Models for Massive Multimodal Embedding Tasks [60.5257456681402]
幅広い下流タスクを扱える普遍的な埋め込みを構築する可能性について検討する。
We build a series of VLM2Vec model on SoTA VLMs like Phi-3.5-V, LLaVA-1.6 and evaluate them on MMEB's evaluation split。
以上の結果から,VLM2Vecは既存のマルチモーダル埋め込みモデルよりも10%から20%の絶対的な平均的改善を実現していることがわかった。
論文 参考訳(メタデータ) (2024-10-07T16:14:05Z) - MTP: Advancing Remote Sensing Foundation Model via Multi-Task Pretraining [73.81862342673894]
ファンデーションモデルは、様々な画像解釈タスクを強化することで、リモートセンシング(RS)のランドスケープを再構築した。
事前訓練されたモデルを下流のタスクに転送することは、イメージ分類やオブジェクト識別タスクとして事前訓練の定式化によるタスクの相違に遭遇する可能性がある。
SAMRSデータセット上で、セマンティックセグメンテーション、インスタンスセグメンテーション、回転オブジェクト検出を含むマルチタスクによる事前トレーニングを行う。
我々のモデルは、シーン分類、水平・回転物体検出、セマンティックセグメンテーション、変化検出など、様々なRS下流タスクに基づいて微調整される。
論文 参考訳(メタデータ) (2024-03-20T09:17:22Z) - ATOM: Asynchronous Training of Massive Models for Deep Learning in a Decentralized Environment [7.916080032572087]
Atomは、分散化された環境で巨大なモデルの非同期トレーニング用に設計された、レジリエントな分散トレーニングフレームワークである。
atomは、スワップをシームレスにモデルし、トレーニングスループットを最適化するために複数のコピーを同時にトレーニングすることで、1つのホスト(ピア)に完全なLLMを適合させることを目的としている。
異なるGPT-3モデル構成を用いて実験したところ、最適ネットワーク接続のシナリオでは、原子は最先端の分散パイプライン並列化アプローチを組み込んだ場合、トレーニング効率を最大20倍に向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:43:43Z) - Steganographic Capacity of Deep Learning Models [12.974139332068491]
いくつかの学習モデルのステガノグラフィー能力について考察する。
我々は,難解なマルウェア分類問題に対して,多層パーセプトロン(MLP),畳み込みニューラルネットワーク(CNN),トランスフォーマーモデルを訓練する。
テストした学習モデルのステガノグラフィー能力は驚くほど高く,いずれの場合も,モデル性能が急速に低下する明確なしきい値が存在することがわかった。
論文 参考訳(メタデータ) (2023-06-25T13:43:35Z) - Playing Lottery Tickets in Style Transfer Models [57.55795986289975]
スタイル・トランスファーは大きな成功を収め、学術界と工業界の両方から幅広い注目を集めた。
しかし、かなり大きなVGGベースのオートエンコーダへの依存は、パラメータの複雑度が高い既存のスタイル転送モデルに繋がる。
本研究では,このようなトレーニング可能なネットワークが,スタイル伝達モデルにも存在するかどうかを検証するための,最初の実証的研究を行う。
論文 参考訳(メタデータ) (2022-03-25T17:43:18Z) - Event Classification with Multi-step Machine Learning [0.0]
マルチステップ機械学習(ML)は、既知の中間推論目標を持つ接続されたサブタスクに編成される。
分散アーキテクチャサーチ(DARTS)と単一パスワンショットNAS(SPOS-NAS)をテストし、損失関数の構築を改善し、すべてのMLモデルをスムーズに学習する。
DARTSとSPOS-NASを最適化と選択、多段階機械学習システムとの接続として使用することにより、(1)高パフォーマンスモデルの組み合わせを迅速かつうまく選択でき、(2)グリッドサーチなどのベースラインアルゴリズムと整合性があることがわかった。
論文 参考訳(メタデータ) (2021-06-04T07:22:05Z) - MultiCheXNet: A Multi-Task Learning Deep Network For Pneumonia-like
Diseases Diagnosis From X-ray Scans [1.0621485365427565]
MultiCheXNetは、一つの神経アーキテクチャにおいて、肺炎に似た疾患の異なるX線データセットを利用することができる。
私たちのアーキテクチャの共通エンコーダは、異なるタスクに存在する有用な共通機能をキャプチャすることができます。
特殊なデコーダヘッドはタスク固有の特徴をキャプチャできる。
論文 参考訳(メタデータ) (2020-08-05T07:45:24Z) - Ensemble Distillation for Robust Model Fusion in Federated Learning [72.61259487233214]
Federated Learning(FL)は、多くのデバイスが機械学習モデルを協調的にトレーニングする機械学習環境である。
現在のトレーニングスキームのほとんどでは、サーバモデルのパラメータと更新されたパラメータをクライアント側から平均化することで、中央モデルを洗練します。
本研究では,モデル融合のためのアンサンブル蒸留法を提案する。
論文 参考訳(メタデータ) (2020-06-12T14:49:47Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。