論文の概要: SoK: An Essential Guide For Using Malware Sandboxes In Security Applications: Challenges, Pitfalls, and Lessons Learned
- arxiv url: http://arxiv.org/abs/2403.16304v1
- Date: Sun, 24 Mar 2024 21:41:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 16:36:48.987420
- Title: SoK: An Essential Guide For Using Malware Sandboxes In Security Applications: Challenges, Pitfalls, and Lessons Learned
- Title(参考訳): SoK:セキュリティアプリケーションにマルウェアサンドボックスを使うための基本ガイド:課題、落とし穴、教訓
- Authors: Omar Alrawi, Miuyin Yong Wong, Athanasios Avgetidis, Kevin Valakuzhy, Boladji Vinny Adjibi, Konstantinos Karakatsanis, Mustaque Ahamad, Doug Blough, Fabian Monrose, Manos Antonakakis,
- Abstract要約: 本稿では,x86/64マルウェアサンドボックスを学術文献に用いた84の代表的な論文を体系化する。
本研究では,サンドボックスコンポーネントを簡素化し,文献を整理し,サンドボックスの使用に関する実践的ガイドラインを導出する新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.24505310582519
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Malware sandboxes provide many benefits for security applications, but they are complex. These complexities can overwhelm new users in different research areas and make it difficult to select, configure, and use sandboxes. Even worse, incorrectly using sandboxes can have a negative impact on security applications. In this paper, we address this knowledge gap by systematizing 84 representative papers for using x86/64 malware sandboxes in the academic literature. We propose a novel framework to simplify sandbox components and organize the literature to derive practical guidelines for using sandboxes. We evaluate the proposed guidelines systematically using three common security applications and demonstrate that the choice of different sandboxes can significantly impact the results. Specifically, our results show that the proposed guidelines improve the sandbox observable activities by at least 1.6x and up to 11.3x. Furthermore, we observe a roughly 25% improvement in accuracy, precision, and recall when using the guidelines to help with a malware family classification task. We conclude by affirming that there is no "silver bullet" sandbox deployment that generalizes, and we recommend that users apply our framework to define a scope for their analysis, a threat model, and derive context about how the sandbox artifacts will influence their intended use case. Finally, it is important that users document their experiment, limitations, and potential solutions for reproducibility
- Abstract(参考訳): マルウェアサンドボックスはセキュリティアプリケーションに多くの利点をもたらすが、それらは複雑である。
これらの複雑さは、異なる研究領域の新規ユーザーを圧倒し、サンドボックスの選択、設定、使用を困難にする。
さらに悪いことに、サンドボックスの誤使用はセキュリティアプリケーションに悪影響を及ぼす可能性がある。
本稿では,x86/64マルウェアサンドボックスを学術文献に用いた84の代表的な論文を体系化することによって,この知識ギャップに対処する。
本研究では,サンドボックスコンポーネントを簡素化し,文献を整理し,サンドボックスの使用に関する実践的ガイドラインを導出する新しいフレームワークを提案する。
提案したガイドラインを3つの共通セキュリティアプリケーションを用いて体系的に評価し、異なるサンドボックスの選択が結果に大きな影響を及ぼすことを示す。
具体的には,提案ガイドラインにより,砂岩観測活動の少なくとも1.6倍,最大11.3倍の改善が図られた。
さらに,このガイドラインを用いてマルウェアの家族分類作業を支援する場合,約25%の精度,精度,リコールの改善が観察された。
我々は、一般的なサンドボックスデプロイメントが存在しないことを確認し、分析対象、脅威モデル、およびサンドボックスアーティファクトが意図したユースケースにどのように影響を与えるかについてのコンテキストを導出するために、当社のフレームワークを適用することを推奨する。
最後に、再現性のための実験、制限、潜在的な解決策をユーザが文書化することが重要である。
関連論文リスト
- On Prompt-Driven Safeguarding for Large Language Models [178.612893285033]
モデル表現空間において、有害で有害なクエリは、大きく区別できるが、これは安全プロンプトによって顕著に強化されない。
そこで本研究では,DRO(Directed Representation Optimization)と呼ばれる自動安全プロンプト最適化手法を提案する。
論文 参考訳(メタデータ) (2024-01-31T17:28:24Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - A Systematic Evaluation of Automated Tools for Side-Channel Vulnerabilities Detection in Cryptographic Libraries [6.826526973994114]
文献を調査し,34のサイドチャネル検出フレームワークの分類を行った。
次に、5つの有望な検出ツールの選択に基づいて、代表的な暗号操作のベンチマークを構築しました。
最近公開されたサイドチャネル脆弱性の分類を提供する。
既存のツールでは,SIMD命令のサポートの欠如,暗黙のフロー,内部シークレット生成など,さまざまな理由から脆弱性を見つけるのに苦労しています。
論文 参考訳(メタデータ) (2023-10-12T09:18:26Z) - Can Sensitive Information Be Deleted From LLMs? Objectives for Defending
Against Extraction Attacks [73.53327403684676]
本稿では,モデル重みから直接センシティブな情報を削除する作業を研究するためのアタック・アンド・ディフェンスフレームワークを提案する。
モデル重み付けへの直接的編集について検討する。この手法は、削除された情報が将来的な攻撃によって抽出されないことを保証すべきである。
我々のホワイトボックスやブラックボックス攻撃は、編集されたモデルの38%から「削除された」情報を復元できるので、ROMEのような最先端のモデル編集方法でさえ、GPT-Jのようなモデルから事実情報を真に消し去るのに苦労している。
論文 参考訳(メタデータ) (2023-09-29T17:12:43Z) - XSTest: A Test Suite for Identifying Exaggerated Safety Behaviours in Large Language Models [34.75181539924584]
そのようなeXaggerated Safetyの振る舞いを特定するために、XSTestと呼ばれる新しいテストスイートを紹介します。
我々は、XSTestの作成と構成を説明し、それからテストスイートを使用して、最先端の言語モデルにおける体系的な障害モードを強調します。
論文 参考訳(メタデータ) (2023-08-02T16:30:40Z) - Verifying the Robustness of Automatic Credibility Assessment [79.08422736721764]
テキスト分類法は信頼性の低い内容を検出する手段として広く研究されている。
入力テキストの無意味な変更は、モデルを誤解させることがある。
偽情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAを紹介する。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - One Size Does not Fit All: Quantifying the Risk of Malicious App
Encounters for Different Android User Profiles [18.58456177992614]
ユーザコミュニティ全体でマルウェアに遭遇するリスクを,大規模に定量的に分析する。
私たちの調査の核心は、1200万のAndroidモバイルデバイスから収集されたアプリのインストールログのデータセットです。
以上の結果から,一大保護ソリューションが不十分であることが確認された。
論文 参考訳(メタデータ) (2023-01-18T07:31:41Z) - Using Static and Dynamic Malware features to perform Malware Ascription [0.0]
我々は、悪意のある実行可能ファイルの静的および動的機能を用いて、その家族に基づいてマルウェアを分類する。
Cuckoo Sandboxと機械学習を活用して、この研究を前進させます。
論文 参考訳(メタデータ) (2021-12-05T18:01:09Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - Machine Learning for Offensive Security: Sandbox Classification Using
Decision Trees and Artificial Neural Networks [1.758684872705242]
ディープラーニングのテクニックは、深いポケットと大規模なデータリポジトリを持つ組織に限られていない。
本稿では、実際の攻撃チームが、攻撃的操作をサポートするために機械学習をどのように使っているかについて、ユニークな洞察を提供することを目的としている。
論文 参考訳(メタデータ) (2020-07-14T01:45:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。