論文の概要: Formalizing Attack Scenario Description: A Proposed Model
- arxiv url: http://arxiv.org/abs/2507.13076v1
- Date: Thu, 17 Jul 2025 12:45:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.49315
- Title: Formalizing Attack Scenario Description: A Proposed Model
- Title(参考訳): 形式化された攻撃シナリオ記述:提案されたモデル
- Authors: Quentin Goux, Nadira Lammari,
- Abstract要約: 本論文の主な研究成果は、攻撃の文脈記述とそのシナリオを包含する新しい形式モデルである。
サイバーセキュリティトレーニングの文脈において、攻撃スクリプトの自動生成にも利用することを示します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Organizations face an ever-changing threat landscape. They must continuously dedicate significant efforts to protect their assets, making their adoption of increased cybersecurity automation inevitable. However, process automation requires formalization of input data. Through this paper, we address this need for processes that use attack scenarios as input. Among these processes, one can mention both the generation of scripts for attack simulation and training purposes, as well as the analysis of attacks. Therefore, the paper's main research contribution is a novel formal model that encompasses the attack's context description and its scenario. It is abstracted using UML class model. Once the description of our model done, we will show how it could serve an upstream attack analysis process. We will show also its use for an automatic generation of attack scripts in the context of cybersecurity training. These two uses cases constitute the second contribution of this present research work.
- Abstract(参考訳): 組織は絶えず変化する脅威に直面する。
彼らは資産を保護するために重要な努力を継続的に注力し、サイバーセキュリティの自動化を必然的に導入しなければならない。
しかし、プロセスの自動化には入力データの形式化が必要である。
本稿では,攻撃シナリオを入力として使用するプロセスの必要性に対処する。
これらのプロセスの中で、攻撃シミュレーションとトレーニング目的のためのスクリプトの生成と、攻撃の分析の両方に言及することができる。
したがって,本論文の主な研究成果は,攻撃の文脈記述とそのシナリオを包含する新たな形式モデルである。
UMLクラスモデルを使用して抽象化される。
モデルの説明が終わると、上流の攻撃分析プロセスにどのように役立つかを示します。
サイバーセキュリティトレーニングの文脈において、攻撃スクリプトの自動生成にも利用することを示します。
これら2つのユースケースは,本研究の2番目の貢献である。
関連論文リスト
- A Survey on Model Extraction Attacks and Defenses for Large Language Models [55.60375624503877]
モデル抽出攻撃は、デプロイされた言語モデルに重大なセキュリティ脅威をもたらす。
この調査は、抽出攻撃と防御攻撃の包括的分類、機能抽出への攻撃の分類、データ抽出の訓練、およびプロンプトターゲット攻撃を提供する。
モデル保護,データプライバシ保護,迅速なターゲット戦略に編成された防御機構について検討し,その効果を異なる展開シナリオで評価する。
論文 参考訳(メタデータ) (2025-06-26T22:02:01Z) - TokenBreak: Bypassing Text Classification Models Through Token Manipulation [0.0]
テキスト分類モデルは、LLM(Large Language Models)に対する即発的なインジェクション攻撃のような脅威を防ぐために実装することができる。
TokenBreakを紹介します。トークン化戦略を活用することで、これらの保護モデルを回避できる新たな攻撃です。
重要なことは、エンドターゲット(LLMまたはEメール受信者)は、まだ操作されたテキストを理解して応答することができ、そのため、保護モデルが配置された非常に攻撃に弱いことである。
論文 参考訳(メタデータ) (2025-06-09T17:11:28Z) - Merger-as-a-Stealer: Stealing Targeted PII from Aligned LLMs with Model Merging [49.270050440553575]
この攻撃を実現するための2段階フレームワークである textttMerger-as-a-Stealer を提案する。
まず、攻撃者は悪意のあるモデルを微調整し、PII関連のクエリに応答するよう強制する。
次に、攻撃者は直接PII関連クエリをマージしたモデルに入力し、ターゲットPIIを抽出する。
論文 参考訳(メタデータ) (2025-02-22T05:34:53Z) - It Is Time To Steer: A Scalable Framework for Analysis-driven Attack Graph Generation [50.06412862964449]
アタックグラフ(AG)は、コンピュータネットワークに対するマルチステップ攻撃に対するサイバーリスクアセスメントをサポートする最も適したソリューションである。
現在の解決策は、アルゴリズムの観点から生成問題に対処し、生成が完了した後のみ解析を仮定することである。
本稿では,アナリストがいつでもシステムに問い合わせることのできる新しいワークフローを通じて,従来のAG分析を再考する。
論文 参考訳(メタデータ) (2023-12-27T10:44:58Z) - Streamlining Attack Tree Generation: A Fragment-Based Approach [39.157069600312774]
本稿では,公開情報セキュリティデータベースの情報を活用した,フラグメントベースのアタックグラフ生成手法を提案する。
また,攻撃グラフ生成手法として,攻撃モデリングのためのドメイン固有言語を提案する。
論文 参考訳(メタデータ) (2023-10-01T12:41:38Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - I Know What You Trained Last Summer: A Survey on Stealing Machine
Learning Models and Defences [0.1031296820074812]
本研究では,モデル盗難攻撃について検討し,その性能を評価し,異なる環境で対応する防御技術を探究する。
攻撃・防衛アプローチのための分類法を提案し,目標と利用可能な資源に基づいて適切な攻撃・防衛を選択する方法に関するガイドラインを提供する。
論文 参考訳(メタデータ) (2022-06-16T21:16:41Z) - Zero-shot learning approach to adaptive Cybersecurity using Explainable
AI [0.5076419064097734]
本稿では,セキュリティ情報やイベント管理 (SIEM) や侵入検知 (IDS) といったサイバーセキュリティシステムで直面するアラーム浸水問題に対処する新しいアプローチを提案する。
我々は機械学習(ML)にゼロショット学習法を適用し、MLモデルによって生成された異常の予測に説明を活用する。
このアプローチでは、攻撃に関する事前の知識がなければ、それを識別し、分類に寄与する特徴を解読し、特定のカテゴリで攻撃をバケット化しようとする。
論文 参考訳(メタデータ) (2021-06-21T06:29:13Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Explain2Attack: Text Adversarial Attacks via Cross-Domain
Interpretability [18.92690624514601]
研究によると、下流のモデルは、トレーニングデータのような敵対的な入力で簡単に騙されるが、わずかに混乱している。
本稿では,テキスト分類タスクに対するブラックボックス攻撃であるExplain2Attackを提案する。
我々のフレームワークは、最先端モデルのアタックレートを達成または上回る一方、クエリコストの低減と効率の向上を図っている。
論文 参考訳(メタデータ) (2020-10-14T04:56:41Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。