論文の概要: Cybersecurity Software Tool Evaluation Using a 'Perfect' Network Model
- arxiv url: http://arxiv.org/abs/2409.09175v1
- Date: Fri, 13 Sep 2024 20:21:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 21:59:04.770097
- Title: Cybersecurity Software Tool Evaluation Using a 'Perfect' Network Model
- Title(参考訳): 完全ネットワークモデルを用いたサイバーセキュリティソフトウェアツールの評価
- Authors: Jeremy Straub,
- Abstract要約: サイバーセキュリティソフトウェアツールの評価は、フィールドの本質的に敵対的な性質のため困難である。
本稿では, コンピュータシステム, ネットワーク, 攻撃経路を表す「完全」ネットワークを, サイバーセキュリティ意思決定ツールのテスト手法として用いることを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Cybersecurity software tool evaluation is difficult due to the inherently adversarial nature of the field. A penetration testing (or offensive) tool must be tested against a viable defensive adversary and a defensive tool must, similarly, be tested against a viable offensive adversary. Characterizing the tool's performance inherently depends on the quality of the adversary, which can vary from test to test. This paper proposes the use of a 'perfect' network, representing computing systems, a network and the attack pathways through it as a methodology to use for testing cybersecurity decision-making tools. This facilitates testing by providing a known and consistent standard for comparison. It also allows testing to include researcher-selected levels of error, noise and uncertainty to evaluate cybersecurity tools under these experimental conditions.
- Abstract(参考訳): サイバーセキュリティソフトウェアツールの評価は、フィールドの本質的に敵対的な性質のため困難である。
侵入テスト(または攻撃)ツールは、実行可能な防御敵に対してテストされ、防御ツールも同様に、実行可能な攻撃敵に対してテストされなければならない。
ツールのパフォーマンスを特徴づけるのは、本質的には、テストからテストまで様々である敵の品質に依存します。
本稿では, コンピュータシステム, ネットワーク, 攻撃経路を表す「完全」ネットワークを, サイバーセキュリティ意思決定ツールのテスト手法として用いることを提案する。
これにより、既知の一貫した比較標準を提供することで、テストを容易にする。
また、これらの実験条件下でサイバーセキュリティツールを評価するために、研究者が選択したエラー、ノイズ、不確実性のレベルを含めることができる。
関連論文リスト
- AI-Compass: A Comprehensive and Effective Multi-module Testing Tool for AI Systems [26.605694684145313]
本研究では,AIシステムを包括的かつ効果的に評価するテストツール,ツールを設計,実装する。
このツールは、敵の堅牢性、モデル解釈可能性、およびニューロン分析を広範囲に評価する。
私たちの研究は、ランドスケープをテストするAIシステムの一般的なソリューションに光を当てています。
論文 参考訳(メタデータ) (2024-11-09T11:15:17Z) - The Impact of SBOM Generators on Vulnerability Assessment in Python: A Comparison and a Novel Approach [56.4040698609393]
Software Bill of Materials (SBOM) は、ソフトウェア構成における透明性と妥当性を高めるツールとして推奨されている。
現在のSBOM生成ツールは、コンポーネントや依存関係を識別する際の不正確さに悩まされることが多い。
提案するPIP-sbomは,その欠点に対処する新しいピップインスパイアされたソリューションである。
論文 参考訳(メタデータ) (2024-09-10T10:12:37Z) - CIPHER: Cybersecurity Intelligent Penetration-testing Helper for Ethical Researcher [1.6652242654250329]
本研究は,Cybersecurity Intelligent Peretration-testing Helper for Ethical researchers (CIPHER)を開発した。
私たちは、脆弱なマシンの300以上の高品質な書き込み、ハッキングテクニック、オープンソースの侵入テストツールのドキュメントを使用してCIPHERをトレーニングしました。
本研究では,完全自動ペンテスティング・シミュレーション・ベンチマークを確立するために,書込みテストの拡張手法であるFinderings, Action, Reasoning, Results (FARR) Flow Augmentationを紹介する。
論文 参考訳(メタデータ) (2024-08-21T14:24:04Z) - Constrained Adversarial Learning and its applicability to Automated
Software Testing: a systematic review [0.0]
この体系的なレビューは、敵の学習やソフトウェアテストに適用される制約付きデータ生成手法の現状に焦点を当てている。
研究者や開発者に対して、敵対的な学習方法によるテストツールの強化と、ディジタルシステムのレジリエンスと堅牢性の向上を指導することを目的としている。
論文 参考訳(メタデータ) (2023-03-14T00:27:33Z) - Increasing Confidence in Adversarial Robustness Evaluations [53.2174171468716]
本稿では,弱い攻撃を識別し,防御評価を弱めるテストを提案する。
本テストでは,各サンプルに対する逆例の存在を保証するため,ニューラルネットワークをわずかに修正した。
これまでに公表された13の防衛のうち、11の防衛について、元の防衛評価は我々のテストに失敗し、これらの防衛を破る強力な攻撃はそれを通過する。
論文 参考訳(メタデータ) (2022-06-28T13:28:13Z) - Can Adversarial Training Be Manipulated By Non-Robust Features? [64.73107315313251]
もともとテストタイムの敵の例に抵抗するために設計された対人訓練は、トレーニング時間アベイラビリティーアタックの緩和に有望であることが示されている。
我々は、トレーニングデータをわずかに摂動させることで、堅牢な可用性を阻害することを目的とした、安定性攻撃と呼ばれる新しい脅威モデルを特定する。
この脅威の下では、従来の防衛予算$epsilon$による敵の訓練が、単純な統計的条件下でテストロバスト性を提供するのに確実に失敗することを発見した。
論文 参考訳(メタデータ) (2022-01-31T16:25:25Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - Pandora: A Cyber Range Environment for the Safe Testing and Deployment
of Autonomous Cyber Attack Tools [0.0]
Pandoraは安全なテスト環境であり、セキュリティ研究者とサイバーレンジユーザーが自動サイバー攻撃ツールの実験を行うことができる。
エンタープライズコンピュータシステムと直接互換性を持つ既存のテストベッドやサイバーレンジとは異なり、我々のテストシステムは、企業現実のコンピュータシステムと互換性がないよう意図的に設計されている。
論文 参考訳(メタデータ) (2020-09-24T04:38:47Z) - Search-based Test-Case Generation by Monitoring Responsibility Safety
Rules [2.1270496914042996]
本研究では,シミュレーションに基づく運転テストデータのスクリーニングと分類を行う手法を提案する。
本フレームワークは,S-TALIROおよびSim-ATAVツールとともに配布されている。
論文 参考訳(メタデータ) (2020-04-25T10:10:11Z) - Testing Robustness Against Unforeseen Adversaries [54.75108356391557]
対向ロバストネスの研究は主にL_p摂動に焦点を当てている。
現実世界のアプリケーションでは、開発者はシステムが直面するあらゆる攻撃や汚職にアクセスできる可能性は低い。
我々は、予期せぬ敵に対して、モデルロバスト性を評価するためのフレームワークであるImageNet-UAを紹介する。
論文 参考訳(メタデータ) (2019-08-21T17:36:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。