論文の概要: Learning from Few Samples: A Novel Approach for High-Quality Malcode Generation
- arxiv url: http://arxiv.org/abs/2508.18148v1
- Date: Mon, 25 Aug 2025 15:55:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.848752
- Title: Learning from Few Samples: A Novel Approach for High-Quality Malcode Generation
- Title(参考訳): 少数のサンプルから学ぶ: 高品質なマルコード生成の新しいアプローチ
- Authors: Haijian Ma, Daizong Liu, Xiaowen Cai, Pan Zhou, Yulai Xie,
- Abstract要約: 侵入検知システム(IDS)は,ネットワークセキュリティ防衛において重要な役割を担っている。
検出モデルのトレーニングにおけるIDSの重要な課題は、適切にラベル付けされた悪意のあるサンプルが不足していることである。
本稿では、GAN(Generative Adrial Networks)とLLM(Large Language Models)を統合した、新しい半教師付きフレームワーク textbfGANGRL-LLMを提案する。
- 参考スコア(独自算出の注目度): 47.76793060077816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intrusion Detection Systems (IDS) play a crucial role in network security defense. However, a significant challenge for IDS in training detection models is the shortage of adequately labeled malicious samples. To address these issues, this paper introduces a novel semi-supervised framework \textbf{GANGRL-LLM}, which integrates Generative Adversarial Networks (GANs) with Large Language Models (LLMs) to enhance malicious code generation and SQL Injection (SQLi) detection capabilities in few-sample learning scenarios. Specifically, our framework adopts a collaborative training paradigm where: (1) the GAN-based discriminator improves malicious pattern recognition through adversarial learning with generated samples and limited real samples; and (2) the LLM-based generator refines the quality of malicious code synthesis using reward signals from the discriminator. The experimental results demonstrate that even with a limited number of labeled samples, our training framework is highly effective in enhancing both malicious code generation and detection capabilities. This dual enhancement capability offers a promising solution for developing adaptive defense systems capable of countering evolving cyber threats.
- Abstract(参考訳): 侵入検知システム(IDS)は,ネットワークセキュリティ防衛において重要な役割を担っている。
しかし、IDSのトレーニングモデルにおける重要な課題は、適切にラベル付けされた悪意のあるサンプルが不足していることである。
このような問題に対処するため,本稿では,GAN(Generative Adversarial Networks)とLLM(Large Language Models)を統合し,悪意のあるコード生成とSQLインジェクション(SQLi)検出機能を少数の学習シナリオで強化する,新しい半教師付きフレームワークである‘textbf{GANGRL-LLM} を紹介する。
具体的には,(1)GANに基づく識別器は,生成したサンプルと限られた実サンプルを用いて,敵対的学習を通じて悪意あるパターン認識を改善し,(2)LLMベースの生成器は,識別器からの報酬信号を用いて悪意のあるコード合成の質を向上する。
実験結果から,ラベル付きサンプルが限られていても,悪質なコード生成と検出機能の向上に極めて有効なトレーニングフレームワークであることが確認された。
このデュアルエンハンスメント能力は、進化するサイバー脅威に対処できる適応防御システムを開発するための有望なソリューションを提供する。
関連論文リスト
- GUARD:Dual-Agent based Backdoor Defense on Chain-of-Thought in Neural Code Generation [17.36458017234638]
GUARDは、ニューラルコード生成におけるCoTバックドア攻撃に対抗するために設計された、新しいデュアルエージェント防御フレームワークである。
GUARDは2つのコアコンポーネントを統合している。GUARD-Judgeは不審なCoTステップと潜在的なトリガーを包括的分析によって識別する。
論文 参考訳(メタデータ) (2025-05-27T16:55:46Z) - Learning in Multiple Spaces: Few-Shot Network Attack Detection with Metric-Fused Prototypical Networks [47.18575262588692]
本稿では,数発の攻撃検出に適した新しいマルチスペースプロトタイプ学習フレームワークを提案する。
Polyakの平均的なプロトタイプ生成を活用することで、このフレームワークは学習プロセスを安定化し、稀でゼロデイの攻撃に効果的に適応する。
ベンチマークデータセットによる実験結果から、MSPLは、目立たない、新しい攻撃タイプを検出する従来のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-12-28T00:09:46Z) - Comprehensive Botnet Detection by Mitigating Adversarial Attacks, Navigating the Subtleties of Perturbation Distances and Fortifying Predictions with Conformal Layers [1.6001193161043425]
ボットネット(Botnet)は、悪意あるアクターによって制御されるコンピュータネットワークで、重要なサイバーセキュリティ上の課題を提示する。
本研究は、機械学習ベースのボットネット検出システムを弱体化させることを目的として、攻撃者が引き起こす高度な敵操作に対処する。
ISCXデータセットとISOTデータセットに基づいてトレーニングされた機械学習とディープラーニングアルゴリズムを活用するフローベース検出アプローチを導入する。
論文 参考訳(メタデータ) (2024-09-01T08:53:21Z) - Multi-agent Reinforcement Learning-based Network Intrusion Detection System [3.4636217357968904]
侵入検知システム(IDS)は,コンピュータネットワークのセキュリティ確保において重要な役割を担っている。
本稿では,自動,効率的,堅牢なネットワーク侵入検出が可能な,新しいマルチエージェント強化学習(RL)アーキテクチャを提案する。
我々のソリューションは、新しい攻撃の追加に対応し、既存の攻撃パターンの変更に効果的に適応するように設計されたレジリエントなアーキテクチャを導入します。
論文 参考訳(メタデータ) (2024-07-08T09:18:59Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z) - Generative Adversarial Network-Driven Detection of Adversarial Tasks in
Mobile Crowdsensing [5.675436513661266]
クラウドセンシングシステムは、不特定かつユビキタスなプロパティの上に構築されるため、さまざまな攻撃に対して脆弱である。
以前の研究では、GANベースの攻撃は実験的に設計された攻撃サンプルよりも重大な破壊力を示すことが示唆されている。
本稿では,GANモデルを統合することにより,知的に設計された不正なセンシングサービス要求を検出することを目的とする。
論文 参考訳(メタデータ) (2022-02-16T00:23:25Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。