論文の概要: Automatic Attack Script Generation: a MDA Approach
- arxiv url: http://arxiv.org/abs/2603.11861v1
- Date: Thu, 12 Mar 2026 12:34:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.069386
- Title: Automatic Attack Script Generation: a MDA Approach
- Title(参考訳): 自動攻撃スクリプト生成:MDAアプローチ
- Authors: Quentin Goux, Nadira Lammari,
- Abstract要約: 本研究は,非公式な攻撃シナリオ記述に基づいて,スクリプトと攻撃コンテキストを自動的に生成するアプローチを提案する。
計算独立モデルを表現するために形式言語を提案する。
本研究は,サイバーセキュリティトレーニングにおけるアタック実装の全体的な改善だけでなく,様々なプラットフォームでの再利用にも貢献する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is widely recognized that practical exercises are crucial for teaching cybersecurity in higher education. However, their setup is not only expensive, time-consuming, and prone to numerous errors, but also requires technical and programming skills to create attack contexts and scripts. To mitigate these drawbacks, this research work proposes an approach that automatically generates scripts and attack contexts based on informal attack scenario descriptions. To isolate business concerns from technological issues, our approach is aligned with the MDA development method. A formal language is proposed to express our Computation Independent model. We rely on the TOSCA standard to describe our Platform Independent Model. We also allow through our approach the generation of several Platform Specific Models. Hence, this research work contributes not only to the overall improvement of attack implementations for cybersecurity training but also to their reuse on various platforms.
- Abstract(参考訳): 高等教育におけるサイバーセキュリティの教育には,実践的な演習が不可欠であることが広く認識されている。
しかし、それらのセットアップはコストがかかり、時間がかかり、多くのエラーが発生しやすいだけでなく、攻撃コンテキストやスクリプトを作成するのに技術やプログラミングのスキルも必要である。
本研究は,これらの欠点を軽減するために,非公式な攻撃シナリオ記述に基づくスクリプトと攻撃コンテキストの自動生成手法を提案する。
技術的問題からビジネス上の懸念を分離するため,本手法はMDA開発手法と整合している。
計算独立モデルを表現するために形式言語を提案する。
私たちは、プラットフォーム独立モデルを記述するためにTOSCA標準に依存しています。
また、アプローチを通じて、いくつかのプラットフォーム特化モデルの生成を可能にします。
したがって,本研究はサイバーセキュリティトレーニングにおける攻撃実装の全体的な改善だけでなく,様々なプラットフォームでの再利用にも貢献する。
関連論文リスト
- Constructing Multi-label Hierarchical Classification Models for MITRE ATT&CK Text Tagging [0.0]
我々は、MITRE ATT&CKテキストタグタスクの「タスクスペース」の特徴付けを行う。
テキストタギングタスクのための多ラベル階層分類モデルを構築した。
私たちのモデルは、古典的な機械学習手法にのみ依存しながら、最先端のパフォーマンスを満たしたり、超えたりします。
論文 参考訳(メタデータ) (2026-01-21T00:41:34Z) - A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - Formalizing Attack Scenario Description: A Proposed Model [0.0]
本論文の主な研究成果は、攻撃の文脈記述とそのシナリオを包含する新しい形式モデルである。
サイバーセキュリティトレーニングの文脈において、攻撃スクリプトの自動生成にも利用することを示します。
論文 参考訳(メタデータ) (2025-07-17T12:45:37Z) - A Survey on Model Extraction Attacks and Defenses for Large Language Models [55.60375624503877]
モデル抽出攻撃は、デプロイされた言語モデルに重大なセキュリティ脅威をもたらす。
この調査は、抽出攻撃と防御攻撃の包括的分類、機能抽出への攻撃の分類、データ抽出の訓練、およびプロンプトターゲット攻撃を提供する。
モデル保護,データプライバシ保護,迅速なターゲット戦略に編成された防御機構について検討し,その効果を異なる展開シナリオで評価する。
論文 参考訳(メタデータ) (2025-06-26T22:02:01Z) - Machine Unlearning Doesn't Do What You Think: Lessons for Generative AI Policy and Research [186.53450963176968]
「マシーン・アンラーニング」は、法的・道徳的な理由から問題となるAIモデルにおけるコンテンツの存在を緩和するための解決策である。
ML研究者や政策立案者がこれらの課題について厳格に考えるためのフレームワークを提供する。
論文 参考訳(メタデータ) (2024-12-09T20:18:43Z) - Combatting Human Trafficking in the Cyberspace: A Natural Language
Processing-Based Methodology to Analyze the Language in Online Advertisements [55.2480439325792]
このプロジェクトは、高度自然言語処理(NLP)技術により、オンラインC2Cマーケットプレースにおける人身売買の急激な問題に取り組む。
我々は、最小限の監督で擬似ラベル付きデータセットを生成する新しい手法を導入し、最先端のNLPモデルをトレーニングするための豊富なリソースとして機能する。
重要な貢献は、Integrated Gradientsを使った解釈可能性フレームワークの実装であり、法執行にとって重要な説明可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-22T02:45:01Z) - COVER: A Heuristic Greedy Adversarial Attack on Prompt-based Learning in
Language Models [4.776465250559034]
ブラックボックスシナリオにおける手動テンプレートに対するプロンプトベースの逆攻撃を提案する。
まず,手動テンプレートを個別に分割するための文字レベルと単語レベルのアプローチを設計する。
そして、上記の破壊的アプローチに基づく攻撃に対する欲求的アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-09T03:53:42Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - I Know What You Trained Last Summer: A Survey on Stealing Machine
Learning Models and Defences [0.1031296820074812]
本研究では,モデル盗難攻撃について検討し,その性能を評価し,異なる環境で対応する防御技術を探究する。
攻撃・防衛アプローチのための分類法を提案し,目標と利用可能な資源に基づいて適切な攻撃・防衛を選択する方法に関するガイドラインを提供する。
論文 参考訳(メタデータ) (2022-06-16T21:16:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。