論文の概要: PHANTOM: Progressive High-fidelity Adversarial Network for Threat Object Modeling
- arxiv url: http://arxiv.org/abs/2512.15768v1
- Date: Fri, 12 Dec 2025 18:14:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.683143
- Title: PHANTOM: Progressive High-fidelity Adversarial Network for Threat Object Modeling
- Title(参考訳): PHANTOM:脅威オブジェクトモデリングのためのプログレッシブな高忠実度対応ネットワーク
- Authors: Jamal Al-Karaki, Muhammad Al-Zafar Khan, Rand Derar Mohammad Al Athamneh,
- Abstract要約: PHANTOMは、高忠実性合成攻撃データを生成するための新しい逆変分フレームワークである。
そのイノベーションには、プログレッシブトレーニング、デュアルパスのVAE-GANアーキテクチャ、攻撃のセマンティクスを保存するためのドメイン固有の特徴マッチングなどがある。
PHANTOMデータに基づいてトレーニングされたモデルは、実際の攻撃に対して98%の重み付き精度を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The scarcity of cyberattack data hinders the development of robust intrusion detection systems. This paper introduces PHANTOM, a novel adversarial variational framework for generating high-fidelity synthetic attack data. Its innovations include progressive training, a dual-path VAE-GAN architecture, and domain-specific feature matching to preserve the semantics of attacks. Evaluated on 100,000 network traffic samples, models trained on PHANTOM data achieve 98% weighted accuracy on real attacks. Statistical analyses confirm that the synthetic data preserves authentic distributions and diversity. Limitations in generating rare attack types are noted, highlighting challenges with severe class imbalance. This work advances the generation of synthetic data for training robust, privacy-preserving detection systems.
- Abstract(参考訳): サイバー攻撃データの不足は、堅牢な侵入検知システムの開発を妨げる。
本稿では,高忠実度合成攻撃データを生成するための新しい逆変分フレームワークであるPHANTOMを紹介する。
そのイノベーションには、プログレッシブトレーニング、デュアルパスのVAE-GANアーキテクチャ、攻撃のセマンティクスを保存するためのドメイン固有の特徴マッチングなどがある。
10万のネットワークトラフィックサンプルに基づいて評価され、PHANTOMデータに基づいてトレーニングされたモデルは、実際の攻撃に対して98%の重み付き精度を達成する。
統計分析により、合成データは真の分布と多様性を保存することが確認される。
稀な攻撃タイプを生成する際の制限が指摘され、深刻なクラス不均衡を伴う課題が浮き彫りにされている。
この研究は、堅牢でプライバシーを保護した検知システムをトレーニングするための合成データの生成を前進させる。
関連論文リスト
- Deep Learning Models for Robust Facial Liveness Detection [56.08694048252482]
本研究では,現代のアンチスプーフィング手法の欠陥に対処する新しい深層学習モデルを用いて,ロバストな解を提案する。
テクスチャ解析と実際の人間の特性に関連する反射特性を革新的に統合することにより、我々のモデルは、顕著な精度でレプリカと真の存在を区別する。
論文 参考訳(メタデータ) (2025-08-12T17:19:20Z) - Hybrid LLM-Enhanced Intrusion Detection for Zero-Day Threats in IoT Networks [6.087274577167399]
本稿では,GPT-2大言語モデル(LLM)の文脈理解機能と従来のシグネチャベース手法を統合した侵入検出手法を提案する。
本稿では,GPT-2による意味解析の適応性とシグネチャベースの手法の堅牢性を融合したハイブリッドIDSフレームワークを提案する。
代表的な侵入データセットを用いた実験により, 検出精度を6.3%向上し, 偽陽性率を9.0%低減し, ほぼリアルタイム応答性を維持した。
論文 参考訳(メタデータ) (2025-07-10T04:10:03Z) - Alleviating Attack Data Scarcity: SCANIA's Experience Towards Enhancing In-Vehicle Cyber Security Measures [0.1631115063641726]
本稿では,攻撃入力とそれに対応する車載ネットワークログを生成するコンテキスト対応アタックデータ生成器を提案する。
CANメッセージデコーディングとアタック強度調整を付加したパラメータ化攻撃モデルを使用して、アタックシナリオを構成する。
生成したデータを用いて2つのディープニューラルネットワークIDSモデルの実験的評価を行った。
論文 参考訳(メタデータ) (2025-07-03T13:31:33Z) - A Chaos Driven Metric for Backdoor Attack Detection [1.534667887016089]
この研究は、AIモデルの最も重要な攻撃ベクトルの1つであるトレーニングデータセットのデータ中毒によるバックドア攻撃に対する、新たな防御メカニズムを提案する。
本手法では,カオス理論と多様体学習を組み合わせた統合的手法を提案する。
ニューロカオス特徴の条件分散に基づく新しい尺度-精度行列依存スコア(PDS)を定式化する。
論文 参考訳(メタデータ) (2025-05-06T05:51:27Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Advancing DDoS Attack Detection: A Synergistic Approach Using Deep
Residual Neural Networks and Synthetic Oversampling [2.988269372716689]
本稿では,Deep Residual Neural Networks(ResNets)の機能を活用したDDoS攻撃検出の強化手法を提案する。
我々は、良性および悪意のあるデータポイントの表現のバランスをとり、モデルが攻撃を示す複雑なパターンをよりよく識別できるようにする。
実世界のデータセットを用いた実験結果から,従来の手法よりもはるかに優れた99.98%の精度が得られた。
論文 参考訳(メタデータ) (2024-01-06T03:03:52Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。