論文の概要: Adversarial Pre-Padding: Generating Evasive Network Traffic Against Transformer-Based Classifiers
- arxiv url: http://arxiv.org/abs/2510.25810v1
- Date: Wed, 29 Oct 2025 09:45:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.505637
- Title: Adversarial Pre-Padding: Generating Evasive Network Traffic Against Transformer-Based Classifiers
- Title(参考訳): 逆プレパディング:変圧器を用いた分類器に対する広帯域ネットワークトラフィックの生成
- Authors: Quanliang Jing, Xinxin Fan, Yanyan Liu, Jingping Bi,
- Abstract要約: 提案手法は, 新規かつ効果的なアンダーライン逆転型アンダーライントラフィック生成手法である。
ネットワークトラフィック分類のためのトランスフォーマーモデルに対する既存の研究の限界を効果的に克服し,ネットワークトラフィックの摂動を最適化するための強化学習モデルを採用する。
- 参考スコア(独自算出の注目度): 7.283896930735145
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: To date, traffic obfuscation techniques have been widely adopted to protect network data privacy and security by obscuring the true patterns of traffic. Nevertheless, as the pre-trained models emerge, especially transformer-based classifiers, existing traffic obfuscation methods become increasingly vulnerable, as witnessed by current studies reporting the traffic classification accuracy up to 99\% or higher. To counter such high-performance transformer-based classification models, we in this paper propose a novel and effective \underline{adv}ersarial \underline{traffic}-generating approach (AdvTraffic\footnote{The code and data are available at: http://xxx}). Our approach has two key innovations: (i) a pre-padding strategy is proposed to modify packets, which effectively overcomes the limitations of existing research against transformer-based models for network traffic classification; and (ii) a reinforcement learning model is employed to optimize network traffic perturbations, aiming to maximize adversarial effectiveness against transformer-based classification models. To the best of our knowledge, this is the first attempt to apply adversarial perturbation techniques to defend against transformer-based traffic classifiers. Furthermore, our method can be easily deployed into practical network environments. Finally, multi-faceted experiments are conducted across several real-world datasets, and the experimental results demonstrate that our proposed method can effectively undermine transformer-based classifiers, significantly reducing classification accuracy from 99\% to as low as 25.68\%.
- Abstract(参考訳): これまで、トラフィックの本当のパターンを隠蔽することによって、ネットワークデータのプライバシとセキュリティを保護するために、トラフィック難読化技術が広く採用されてきた。
それにもかかわらず、事前訓練されたモデル、特にトランスフォーマーベースの分類器が出現するにつれて、既存の交通難読化手法はますます脆弱になり、現在の研究では、交通分類の精度を99\%以上まで報告している。
このような高性能トランスフォーマーに基づく分類モデルに対抗するために,本論文では, 新規かつ効果的な<underline{adv}ersarial \underline{traffic}-generating approach(AdvTraffic\footnote{ コードとデータは http://xxx} で利用可能)を提案する。
私たちのアプローチには2つの重要な革新があります。
i)ネットワークトラフィック分類のためのトランスフォーマーモデルに対する既存の研究の限界を効果的に克服するパケット変更のためのプレパディング戦略を提案する。
(2)変圧器を用いた分類モデルに対する対角効果の最大化を目的とした,ネットワークトラフィック摂動の最適化を目的とした強化学習モデルを用いる。
我々の知る限りでは、これはトランスフォーマーベースの交通分類器を防御するために対向的摂動技術を適用しようとする最初の試みである。
さらに,本手法は実用的なネットワーク環境に容易に展開できる。
最後に, 実世界の複数のデータセットを対象とした多面的実験を行い, 提案手法が変換器を用いた分類を効果的に弱め, 99\%から25.68\%までの分類精度を著しく低下させることを示した。
関連論文リスト
- Convolutions are Competitive with Transformers for Encrypted Traffic Classification with Pre-training [12.150588010496165]
我々は,線形複雑化と暗黙的な位置符号化を伴う畳み込みが,事前学習を伴う暗号化トラフィック分類において,トランスフォーマーと競合するかどうかを検討する。
我々は,暗号化トラフィック分類のための新しい学習済み畳み込みモデルであるNetConvを提案する。
我々はNetConvが既存の事前学習モデルよりも平均分類性能を6.88%向上し、モデルのスループットを7.41倍向上することを示した。
論文 参考訳(メタデータ) (2025-08-04T02:42:44Z) - Language of Network: A Generative Pre-trained Model for Encrypted Traffic Comprehension [16.795038178588324]
ディープ・ラーニングは、現在、特徴分析を通じて暗号化されたトラフィック分類の主要なアプローチである。
本稿では,暗号化トラフィック理解のための事前学習に基づく生成モデルGBCを提案する。
トラフィック分類と生成タスクの両方において優れた結果が得られ、その結果、分類タスクの最先端手法と比較して、F1スコアが5%向上する。
論文 参考訳(メタデータ) (2025-05-26T04:04:29Z) - Less is More: Simplifying Network Traffic Classification Leveraging RFCs [3.8623569699070353]
我々は,雑音特性を排除し,有意義な特徴に焦点を当てたネットワークトラフィックの最小限の表現であるNetMatrixを提案する。
選択された基準線と比較して,LiMは資源消費を桁違いに改善することを示した。
本研究は、トラフィック表現と機械学習モデル選択における単純さの有効性を強調し、資源効率の高いネットワークトラフィック分類への道を開く。
論文 参考訳(メタデータ) (2025-02-01T22:55:14Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [81.93945602120453]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Towards a Transformer-Based Pre-trained Model for IoT Traffic Classification [0.6060461053918144]
最先端の分類法はDeep Learningに基づいている。
実際の状況では、IoTトラフィックデータが不足しているため、モデルのパフォーマンスはそれほど良くない。
大規模なラベル付きトランスフォーマーベースのIoTトラフィックデータセット上で事前トレーニングされたIoTトラフィック分類変換器(ITCT)を提案する。
実験の結果、ITCTモデルは既存のモデルよりも大幅に優れ、全体的な精度は82%に達した。
論文 参考訳(メタデータ) (2024-07-26T19:13:11Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Modelling Adversarial Noise for Adversarial Defense [96.56200586800219]
敵の防御は、通常、敵の音を除去したり、敵の頑強な目標モデルを訓練するために、敵の例を活用することに焦点を当てる。
逆データと自然データの関係は、逆データからクリーンデータを推測し、最終的な正しい予測を得るのに役立ちます。
本研究では, ラベル空間の遷移関係を学習するために, 逆方向の雑音をモデル化し, 逆方向の精度を向上させることを目的とした。
論文 参考訳(メタデータ) (2021-09-21T01:13:26Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - DoS and DDoS Mitigation Using Variational Autoencoders [15.23225419183423]
我々は、インテリジェントなセキュリティソリューション内のコンポーネントとして機能する変分オートエンコーダの可能性を探る。
ネットワークトラフィックフローから潜在表現を学習する変分オートエンコーダの能力に基づく2つの手法を提案する。
論文 参考訳(メタデータ) (2021-05-14T15:38:40Z) - Robustness Verification for Transformers [165.25112192811764]
我々はトランスフォーマーのための最初のロバスト性検証アルゴリズムを開発した。
提案手法で計算したロバスト性境界は, 素粒子間境界伝播法で計算したロバスト性境界よりもかなり厳密である。
これらの境界はまた、感情分析における異なる単語の重要性を常に反映しているトランスフォーマーの解釈にも光を当てている。
論文 参考訳(メタデータ) (2020-02-16T17:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。