論文の概要: A Malware Classification Survey on Adversarial Attacks and Defences
- arxiv url: http://arxiv.org/abs/2312.09636v1
- Date: Fri, 15 Dec 2023 09:25:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 16:25:20.447498
- Title: A Malware Classification Survey on Adversarial Attacks and Defences
- Title(参考訳): 敵の攻撃と防御に関するマルウェア分類調査
- Authors: Mahesh Datta Sai Ponnuru, Likhitha Amasala, Tanu Sree Bhimavarapu,
Guna Chaitanya Garikipati
- Abstract要約: ディープラーニングモデルはマルウェアの検出には有効だが、敵の攻撃に対して脆弱である。
このような攻撃は、検出に抵抗する悪意のあるファイルを生成し、重大なサイバーセキュリティリスクを生み出す。
近年の研究では、いくつかの敵対的攻撃と反応のアプローチが開発されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the number and complexity of malware attacks continue to increase, there
is an urgent need for effective malware detection systems. While deep learning
models are effective at detecting malware, they are vulnerable to adversarial
attacks. Attacks like this can create malicious files that are resistant to
detection, creating a significant cybersecurity risk. Recent research has seen
the development of several adversarial attack and response approaches aiming at
strengthening deep learning models' resilience to such attacks. This survey
study offers an in-depth look at current research in adversarial attack and
defensive strategies for malware classification in cybersecurity. The methods
are classified into four categories: generative models, feature-based
approaches, ensemble methods, and hybrid tactics. The article outlines
cutting-edge procedures within each area, assessing their benefits and
drawbacks. Each topic presents cutting-edge approaches and explores their
advantages and disadvantages. In addition, the study discusses the datasets and
assessment criteria that are often utilized on this subject. Finally, it
identifies open research difficulties and suggests future study options. This
document is a significant resource for malware categorization and cyber
security researchers and practitioners.
- Abstract(参考訳): マルウェア攻撃の数と複雑さが増加し続けており、効果的なマルウェア検出システムが必要である。
ディープラーニングモデルはマルウェアの検出に有効であるが、敵の攻撃に弱い。
このような攻撃は、検出に抵抗する悪意のあるファイルを生成し、重大なサイバーセキュリティリスクを生み出す。
近年の研究では、このような攻撃に対する深層学習モデルのレジリエンスを強化するために、いくつかの敵攻撃と対応アプローチが開発されている。
この調査は、サイバーセキュリティにおけるマルウェア分類の敵攻撃と防御戦略に関する最近の研究を詳細に分析する。
手法は, 生成モデル, 特徴に基づくアプローチ, アンサンブル手法, ハイブリッド戦術の4つのカテゴリに分類される。
この記事では、各領域における最先端の手順について概説し、そのメリットと欠点を評価している。
各トピックは最先端のアプローチを示し、そのメリットとデメリットを探求する。
また,本研究は,本研究でよく用いられるデータセットと評価基準について述べる。
最後に、オープンな研究課題を特定し、将来の研究オプションを提案する。
この文書はマルウェアの分類とサイバーセキュリティ研究者と実践者にとって重要な情報源である。
関連論文リスト
- Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Adversarial Patterns: Building Robust Android Malware Classifiers [1.90365714903665]
本稿では,アンドロイドマルウェアに対する対人機械学習について述べる。
まず、画像ベースとテキストベースの特徴抽出アプローチの両方をカバーする、アンドロイドマルウェアの機械学習分類器を構築する際の幅広い背景を示す。
次に,避難攻撃と防衛に関する最先端研究のパターンと進展について検討する。
論文 参考訳(メタデータ) (2022-03-04T03:47:08Z) - A Review of Adversarial Attack and Defense for Classification Methods [78.50824774203495]
本稿では,敵対的事例の生成と保護に焦点をあてる。
この論文は、多くの統計学者が、この重要かつエキサイティングな分野において、敵の事例を生成・防御することを奨励するものである。
論文 参考訳(メタデータ) (2021-11-18T22:13:43Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Binary Black-box Evasion Attacks Against Deep Learning-based Static
Malware Detectors with Adversarial Byte-Level Language Model [11.701290164823142]
MalRNNは、制限なく回避可能なマルウェアバリアントを自動的に生成する新しいアプローチです。
MalRNNは、3つの最近のディープラーニングベースのマルウェア検出器を効果的に回避し、現在のベンチマークメソッドを上回ります。
論文 参考訳(メタデータ) (2020-12-14T22:54:53Z) - A survey on practical adversarial examples for malware classifiers [0.17767466724342065]
ディープニューラルネットワークは敵の例に弱いことが判明した。
この脆弱性を悪用して、回避可能なマルウェアサンプルを作成することができる。
敵のマルウェアの例を生成するマルウェア分類器に対する実践的な攻撃についてレビューする。
論文 参考訳(メタデータ) (2020-11-06T17:07:34Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - Adversarial Deep Ensemble: Evasion Attacks and Defenses for Malware
Detection [8.551227913472632]
悪意のある機能を損なうことなく、マルウェアの例を妨害する新たな攻撃手法を提案する。
このことは、ディープニューラルネットワークのアンサンブルを強化するために、敵のトレーニングの新たなインスタンス化につながる。
2つの実用的なデータセットに対する26の異なる攻撃に対して,Androidマルウェア検出器を用いた防御評価を行った。
論文 参考訳(メタデータ) (2020-06-30T05:56:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。