論文の概要: MalBERT: Using Transformers for Cybersecurity and Malicious Software
Detection
- arxiv url: http://arxiv.org/abs/2103.03806v1
- Date: Fri, 5 Mar 2021 17:09:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 03:14:14.687032
- Title: MalBERT: Using Transformers for Cybersecurity and Malicious Software
Detection
- Title(参考訳): MalBERT: サイバーセキュリティと悪意あるソフトウェア検出にトランスフォーマーを使う
- Authors: Abir Rahali and Moulay A. Akhloufi
- Abstract要約: 注意に基づくディープラーニング技術のカテゴリであるtransformersは、最近、さまざまなタスクを解決する素晴らしい結果を示している。
本研究では,android アプリケーションのソースコードの静的解析を行う bert (bi representations from transformers) に基づくモデルを提案する。
得られた結果は、悪意のあるソフトウェア検出のためのTransformerベースのモデルによって得られた高い性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years we have witnessed an increase in cyber threats and malicious
software attacks on different platforms with important consequences to persons
and businesses. It has become critical to find automated machine learning
techniques to proactively defend against malware. Transformers, a category of
attention-based deep learning techniques, have recently shown impressive
results in solving different tasks mainly related to the field of Natural
Language Processing (NLP). In this paper, we propose the use of a Transformers'
architecture to automatically detect malicious software. We propose a model
based on BERT (Bidirectional Encoder Representations from Transformers) which
performs a static analysis on the source code of Android applications using
preprocessed features to characterize existing malware and classify it into
different representative malware categories. The obtained results are promising
and show the high performance obtained by Transformer-based models for
malicious software detection.
- Abstract(参考訳): 近年、さまざまなプラットフォームでサイバー脅威や悪意のあるソフトウェア攻撃が増加し、人やビジネスに重要な影響を与えています。
マルウェアに対して積極的に防御する自動機械学習技術を見つけることが重要になっている。
注目に基づくディープラーニング技術のカテゴリであるTransformersは、自然言語処理(NLP)の分野を中心に、さまざまなタスクを解くという、目覚ましい成果を最近示した。
本稿では,トランスフォーマーアーキテクチャを用いて悪意のあるソフトウェアを自動的に検出する手法を提案する。
BERT(Bidirectional Encoder Representations from Transformers)に基づくモデルを提案し,既存のマルウェアを識別し,異なる代表的なマルウェアカテゴリに分類する前処理機能を用いて,Androidアプリケーションのソースコードの静的解析を行う。
得られた結果は、悪意のあるソフトウェア検出のためのTransformerベースのモデルによって得られた高い性能を示す。
関連論文リスト
- A Comprehensive Survey on Applications of Transformers for Deep Learning
Tasks [60.38369406877899]
Transformerは、シーケンシャルデータ内のコンテキスト関係を理解するために自己認識メカニズムを使用するディープニューラルネットワークである。
Transformerモデルは、入力シーケンス要素間の長い依存関係を処理し、並列処理を可能にする。
我々の調査では、トランスフォーマーベースのモデルのためのトップ5のアプリケーションドメインを特定します。
論文 参考訳(メタデータ) (2023-06-11T23:13:51Z) - Learning Transformer Programs [78.9509560355733]
設計によって機械的に解釈可能なトランスフォーマーの訓練手順を導入する。
人書きプログラムをTransformerにコンパイルする代わりに、勾配に基づく最適化を用いてトレーニングできる改良されたTransformerを設計する。
Transformer Programsは適切なソリューションを自動的に見つけ、同等のサイズの標準のTransformerと同等に動作する。
論文 参考訳(メタデータ) (2023-06-01T20:27:01Z) - Distributional Instance Segmentation: Modeling Uncertainty and High
Confidence Predictions with Latent-MaskRCNN [77.0623472106488]
本稿では,潜在符号を用いた分散インスタンス分割モデルのクラスについて検討する。
ロボットピッキングへの応用として,高い精度を実現するための信頼性マスク手法を提案する。
本手法は,新たにリリースした曖昧なシーンのデータセットを含め,ロボットシステムにおける致命的なエラーを著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-05-03T05:57:29Z) - Self-Supervised Vision Transformers for Malware Detection [0.0]
本稿では、視覚変換器(ViT)アーキテクチャに基づくマルウェア検出のための自己超越型ディープラーニングモデルであるSHERLOCKを提案する。
提案手法は, マクロF1スコアが.497, 491で, マルチクラスマルウェア分類における最先端技術よりも優れている。
論文 参考訳(メタデータ) (2022-08-15T07:49:58Z) - An Ensemble of Pre-trained Transformer Models For Imbalanced Multiclass
Malware Classification [0.0]
マルウェアによって生成されるAPI呼び出しシーケンスは、マルウェア分類のための機械学習モデルやディープラーニングモデルによって広く利用されている。
従来の機械学習モデルとディープラーニングモデルは、API呼び出し間のシーケンス関係をキャプチャできないままです。
実験により, 1つのトランスブロック層を有するトランスモデルが, 広く使用されているベースアーキテクチャ, LSTMを超越したことを示す。
BERTまたはCANINE(事前訓練されたトランスフォーマーモデル)は、評価指標、F1スコア、AUCスコアに基づいて、高度に不均衡なマルウェアファミリーを分類する上で優れていた。
論文 参考訳(メタデータ) (2021-12-25T13:40:07Z) - Software Vulnerability Detection via Deep Learning over Disaggregated
Code Graph Representation [57.92972327649165]
この研究は、コードコーパスから安全でないパターンを自動的に学習するためのディープラーニングアプローチを探求する。
コードには解析を伴うグラフ構造が自然に認められるため,プログラムの意味的文脈と構造的規則性の両方を利用する新しいグラフニューラルネットワーク(GNN)を開発する。
論文 参考訳(メタデータ) (2021-09-07T21:24:36Z) - ML-based IoT Malware Detection Under Adversarial Settings: A Systematic
Evaluation [9.143713488498513]
本研究は,様々な表現と学習技術を利用した最先端のマルウェア検出手法を体系的に検討する。
本研究では, 剥ぎ取りやパディングなどの機能保存操作によるソフトウェア変異が, 検出精度を著しく低下させることを示した。
論文 参考訳(メタデータ) (2021-08-30T16:54:07Z) - Evading Malware Classifiers via Monte Carlo Mutant Feature Discovery [23.294653273180472]
悪意のあるアクターが代理モデルを訓練して、インスタンスが誤分類される原因となるバイナリ変異を発見する方法を示す。
そして、変異したマルウェアが、抗ウイルスAPIの代わりとなる被害者モデルに送られ、検出を回避できるかどうかをテストする。
論文 参考訳(メタデータ) (2021-06-15T03:31:02Z) - Thinking Like Transformers [64.96770952820691]
本稿では,プログラミング言語の形式で変換器エンコーダの計算モデルを提案する。
RASPは、トランスフォーマーによって確実に学習できるタスクの解決策をプログラムするのにどのように使えるかを示す。
ヒストグラム、ソート、ダイク言語のためのRASPプログラムを提供する。
論文 参考訳(メタデータ) (2021-06-13T13:04:46Z) - Towards an Automated Pipeline for Detecting and Classifying Malware
through Machine Learning [0.0]
Windows Portable Executable File (PE) を分類できるマルウェア分類パイプラインを提案する。
入力PEサンプルが与えられた場合、悪意または良性のいずれかに分類される。
悪意のある場合、パイプラインは脅威タイプ、家族、行動を確立するためにさらに分析する。
論文 参考訳(メタデータ) (2021-06-10T10:07:50Z) - Transformers in Vision: A Survey [101.07348618962111]
トランスフォーマーは、入力シーケンス要素間の長い依存関係をモデリングし、シーケンスの並列処理をサポートします。
変圧器は設計に最小限の誘導バイアスを必要とし、自然にセット関数として適しています。
本調査は,コンピュータビジョン分野におけるトランスフォーマーモデルの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2021-01-04T18:57:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。