論文の概要: SoK: An Essential Guide For Using Malware Sandboxes In Security Applications: Challenges, Pitfalls, and Lessons Learned
- arxiv url: http://arxiv.org/abs/2403.16304v1
- Date: Sun, 24 Mar 2024 21:41:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 16:36:48.987420
- Title: SoK: An Essential Guide For Using Malware Sandboxes In Security Applications: Challenges, Pitfalls, and Lessons Learned
- Title(参考訳): SoK:セキュリティアプリケーションにマルウェアサンドボックスを使うための基本ガイド:課題、落とし穴、教訓
- Authors: Omar Alrawi, Miuyin Yong Wong, Athanasios Avgetidis, Kevin Valakuzhy, Boladji Vinny Adjibi, Konstantinos Karakatsanis, Mustaque Ahamad, Doug Blough, Fabian Monrose, Manos Antonakakis,
- Abstract要約: 本稿では,x86/64マルウェアサンドボックスを学術文献に用いた84の代表的な論文を体系化する。
本研究では,サンドボックスコンポーネントを簡素化し,文献を整理し,サンドボックスの使用に関する実践的ガイドラインを導出する新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.24505310582519
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Malware sandboxes provide many benefits for security applications, but they are complex. These complexities can overwhelm new users in different research areas and make it difficult to select, configure, and use sandboxes. Even worse, incorrectly using sandboxes can have a negative impact on security applications. In this paper, we address this knowledge gap by systematizing 84 representative papers for using x86/64 malware sandboxes in the academic literature. We propose a novel framework to simplify sandbox components and organize the literature to derive practical guidelines for using sandboxes. We evaluate the proposed guidelines systematically using three common security applications and demonstrate that the choice of different sandboxes can significantly impact the results. Specifically, our results show that the proposed guidelines improve the sandbox observable activities by at least 1.6x and up to 11.3x. Furthermore, we observe a roughly 25% improvement in accuracy, precision, and recall when using the guidelines to help with a malware family classification task. We conclude by affirming that there is no "silver bullet" sandbox deployment that generalizes, and we recommend that users apply our framework to define a scope for their analysis, a threat model, and derive context about how the sandbox artifacts will influence their intended use case. Finally, it is important that users document their experiment, limitations, and potential solutions for reproducibility
- Abstract(参考訳): マルウェアサンドボックスはセキュリティアプリケーションに多くの利点をもたらすが、それらは複雑である。
これらの複雑さは、異なる研究領域の新規ユーザーを圧倒し、サンドボックスの選択、設定、使用を困難にする。
さらに悪いことに、サンドボックスの誤使用はセキュリティアプリケーションに悪影響を及ぼす可能性がある。
本稿では,x86/64マルウェアサンドボックスを学術文献に用いた84の代表的な論文を体系化することによって,この知識ギャップに対処する。
本研究では,サンドボックスコンポーネントを簡素化し,文献を整理し,サンドボックスの使用に関する実践的ガイドラインを導出する新しいフレームワークを提案する。
提案したガイドラインを3つの共通セキュリティアプリケーションを用いて体系的に評価し、異なるサンドボックスの選択が結果に大きな影響を及ぼすことを示す。
具体的には,提案ガイドラインにより,砂岩観測活動の少なくとも1.6倍,最大11.3倍の改善が図られた。
さらに,このガイドラインを用いてマルウェアの家族分類作業を支援する場合,約25%の精度,精度,リコールの改善が観察された。
我々は、一般的なサンドボックスデプロイメントが存在しないことを確認し、分析対象、脅威モデル、およびサンドボックスアーティファクトが意図したユースケースにどのように影響を与えるかについてのコンテキストを導出するために、当社のフレームワークを適用することを推奨する。
最後に、再現性のための実験、制限、潜在的な解決策をユーザが文書化することが重要である。
関連論文リスト
- Safe Unlearning: A Surprisingly Effective and Generalizable Solution to Defend Against Jailbreak Attacks [89.54736699767315]
我々は、LLMの有害な知識を直接解き放つことは、脱獄攻撃から守るためのより効果的な方法になり得ると推測する。
Vicuna-7Bの攻撃成功率(ASR)は82.6%から7.7%に低下した。
Llama2-7B-Chatは、約0.1Mの安全アライメントサンプルで微調整されているが、追加の安全システムプロンプトの下でも21.9%のASRを持つ。
論文 参考訳(メタデータ) (2024-07-03T07:14:05Z) - SORRY-Bench: Systematically Evaluating Large Language Model Safety Refusal Behaviors [64.9938658716425]
安全でないユーザリクエストを認識して拒否する、大規模な言語モデル(LLM)の既存の評価は、3つの制限に直面している。
まず、既存の手法では、安全でないトピックの粗い粒度を使い、いくつかのきめ細かいトピックを過剰に表現している。
第二に、プロンプトの言語的特徴とフォーマッティングは、様々な言語、方言など、多くの評価において暗黙的にのみ考慮されているように、しばしば見過ごされる。
第3に、既存の評価は大きなLCMに頼っているため、コストがかかる可能性がある。
論文 参考訳(メタデータ) (2024-06-20T17:56:07Z) - Sandboxing Adoption in Open Source Ecosystems [0.8594140167290099]
本研究では,4つのオープンソースオペレーティングシステムにおけるサンドボックス機構の利用について検討する。
開発者がサンドボックスの実装を簡単にするケースなど、興味深い利用パターンを明らかにしている。
また、サンドボックス機構の普及を妨げているかもしれない課題も強調している。
論文 参考訳(メタデータ) (2024-05-10T12:52:46Z) - Demystifying Behavior-Based Malware Detection at Endpoints [22.3867935906334]
実世界のエンドポイントにおけるMLベースのマルウェア検知器の性能を初めて測定する。
従来手法のサンドボックスによる検出性能の差は広い。
ベースラインよりも5~30%の相対的な改善が期待できる。
論文 参考訳(メタデータ) (2024-05-09T22:04:55Z) - On Prompt-Driven Safeguarding for Large Language Models [172.13943777203377]
表現空間では、入力クエリは通常、安全プロンプトによって「より高い拒絶」方向に移動される。
これらの知見に触発されて,安全性向上,すなわちDROの最適化手法を提案する。
安全性プロンプトを継続的かつトレーニング可能な埋め込みとして扱うことで、DROは、その有害性に応じて、クエリの表現を拒否方向に沿ってあるいは反対に移動させることを学ぶ。
論文 参考訳(メタデータ) (2024-01-31T17:28:24Z) - Can Sensitive Information Be Deleted From LLMs? Objectives for Defending
Against Extraction Attacks [73.53327403684676]
本稿では,モデル重みから直接センシティブな情報を削除する作業を研究するためのアタック・アンド・ディフェンスフレームワークを提案する。
モデル重み付けへの直接的編集について検討する。この手法は、削除された情報が将来的な攻撃によって抽出されないことを保証すべきである。
我々のホワイトボックスやブラックボックス攻撃は、編集されたモデルの38%から「削除された」情報を復元できるので、ROMEのような最先端のモデル編集方法でさえ、GPT-Jのようなモデルから事実情報を真に消し去るのに苦労している。
論文 参考訳(メタデータ) (2023-09-29T17:12:43Z) - FLIRT: Feedback Loop In-context Red Teaming [79.63896510559357]
ブラックボックスモデルを評価し,その脆弱性を明らかにする自動レッドチーム化フレームワークを提案する。
私たちのフレームワークは、レッドチームモデルに対するフィードバックループでコンテキスト内学習を使用し、それらを安全でないコンテンツ生成にトリガーします。
論文 参考訳(メタデータ) (2023-08-08T14:03:08Z) - XSTest: A Test Suite for Identifying Exaggerated Safety Behaviours in Large Language Models [34.75181539924584]
そのようなeXaggerated Safetyの振る舞いを特定するために、XSTestと呼ばれる新しいテストスイートを紹介します。
我々は、XSTestの作成と構成を説明し、それからテストスイートを使用して、最先端の言語モデルにおける体系的な障害モードを強調します。
論文 参考訳(メタデータ) (2023-08-02T16:30:40Z) - Using Static and Dynamic Malware features to perform Malware Ascription [0.0]
我々は、悪意のある実行可能ファイルの静的および動的機能を用いて、その家族に基づいてマルウェアを分類する。
Cuckoo Sandboxと機械学習を活用して、この研究を前進させます。
論文 参考訳(メタデータ) (2021-12-05T18:01:09Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z) - Machine Learning for Offensive Security: Sandbox Classification Using
Decision Trees and Artificial Neural Networks [1.758684872705242]
ディープラーニングのテクニックは、深いポケットと大規模なデータリポジトリを持つ組織に限られていない。
本稿では、実際の攻撃チームが、攻撃的操作をサポートするために機械学習をどのように使っているかについて、ユニークな洞察を提供することを目的としている。
論文 参考訳(メタデータ) (2020-07-14T01:45:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。