論文の概要: Amoeba: Circumventing ML-supported Network Censorship via Adversarial
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2310.20469v1
- Date: Tue, 31 Oct 2023 14:01:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 14:56:12.354720
- Title: Amoeba: Circumventing ML-supported Network Censorship via Adversarial
Reinforcement Learning
- Title(参考訳): Amoeba: 対立強化学習によるML支援ネットワーク検閲の回避
- Authors: Haoyu Liu, Alec F. Diallo and Paul Patras
- Abstract要約: 近年の機械学習の進歩により,交通流に隠された統計的パターンを学習することで,様々な反検閲システムの検出が可能になった。
本稿では,検閲を回避する手段として,フロー分類器に対する現実的な攻撃戦略を定式化する。
我々は,アメーバが,MLアルゴリズムに対して平均94%の攻撃成功率を有する敵流を効果的に形成可能であることを示す。
- 参考スコア(独自算出の注目度): 8.788469979827484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Embedding covert streams into a cover channel is a common approach to
circumventing Internet censorship, due to censors' inability to examine
encrypted information in otherwise permitted protocols (Skype, HTTPS, etc.).
However, recent advances in machine learning (ML) enable detecting a range of
anti-censorship systems by learning distinct statistical patterns hidden in
traffic flows. Therefore, designing obfuscation solutions able to generate
traffic that is statistically similar to innocuous network activity, in order
to deceive ML-based classifiers at line speed, is difficult.
In this paper, we formulate a practical adversarial attack strategy against
flow classifiers as a method for circumventing censorship. Specifically, we
cast the problem of finding adversarial flows that will be misclassified as a
sequence generation task, which we solve with Amoeba, a novel reinforcement
learning algorithm that we design. Amoeba works by interacting with censoring
classifiers without any knowledge of their model structure, but by crafting
packets and observing the classifiers' decisions, in order to guide the
sequence generation process. Our experiments using data collected from two
popular anti-censorship systems demonstrate that Amoeba can effectively shape
adversarial flows that have on average 94% attack success rate against a range
of ML algorithms. In addition, we show that these adversarial flows are robust
in different network environments and possess transferability across various ML
models, meaning that once trained against one, our agent can subvert other
censoring classifiers without retraining.
- Abstract(参考訳): covertストリームをcoverチャンネルに埋め込むことは、検閲者が許可されたプロトコル(skype、httpsなど)で暗号化された情報を調べることができないため、インターネット検閲を回避する一般的なアプローチである。
しかし、機械学習(ML)の最近の進歩により、トラフィックフローに隠された異なる統計的パターンを学習することで、様々な反検閲システムを検出することができる。
したがって、回線速度でmlベースの分類器を欺くために、統計的に無害なネットワークアクティビティに類似したトラフィックを発生できる難読化ソリューションの設計は困難である。
本稿では,検閲を回避する手段として,フロー分類器に対する現実的な攻撃戦略を定式化する。
具体的には,新たに設計した強化学習アルゴリズムであるAmoebaを用いて,列生成タスクとして誤って分類される逆流の探索を課題とした。
amoebaは、モデル構造を知らずに分類器を検閲することで動作し、パケットを作成し、分類器の決定を観察することでシーケンス生成プロセスを導く。
2つの一般的な反検閲システムから収集したデータを用いて実験したところ、アメーバは、MLアルゴリズムに対して平均94%の攻撃成功率を持つ敵流を効果的に形成できることがわかった。
さらに、これらの逆流は、異なるネットワーク環境において堅牢であり、様々なMLモデル間での転送可能性を有していることを示し、これにより、エージェントは、トレーニングを行なわずに、他の検閲分類子を置換することができる。
関連論文リスト
- Countermeasures Against Adversarial Examples in Radio Signal Classification [22.491016049845083]
変調分類における逆例に対する対策を初めて提案する。
提案手法は,ディープラーニングに基づく変調分類システムを敵の例から保護できることを示す。
論文 参考訳(メタデータ) (2024-07-09T12:08:50Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Poisoning Network Flow Classifiers [10.055241826257083]
本稿では,ネットワークトラフィックフロー分類器に対する毒性攻撃,特にバックドア攻撃に焦点を当てた。
学習データのみを改ざんすることを相手の能力に制約するクリーンラベル中毒の難易度シナリオについて検討した。
本稿では, モデル解釈可能性を利用したトリガー製作戦略について述べる。
論文 参考訳(メタデータ) (2023-06-02T16:24:15Z) - Deep PackGen: A Deep Reinforcement Learning Framework for Adversarial
Network Packet Generation [3.5574619538026044]
人工知能(AI)と機械学習(ML)アルゴリズムの最近の進歩は、サイバーセキュリティ運用センター(ディフェンダー)のセキュリティ姿勢を高めている。
近年の研究では、フローベースとパケットベースの特徴の摂動がMLモデルを欺くことが報告されているが、これらのアプローチには限界がある。
我々のフレームワークであるDeep PackGenは、逆パケットを生成するために深層強化学習を採用し、文献におけるアプローチの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2023-05-18T15:32:32Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Attentive WaveBlock: Complementarity-enhanced Mutual Networks for
Unsupervised Domain Adaptation in Person Re-identification and Beyond [97.25179345878443]
本稿では,新しい軽量モジュールであるAttentive WaveBlock (AWB)を提案する。
AWBは相互学習の二重ネットワークに統合され、相互学習の相補性を高め、擬似ラベルのノイズをさらに抑えることができる。
実験により, 提案手法は, 複数のUDA人物再識別タスクを大幅に改善し, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-06-11T15:40:40Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - Adversarial Machine Learning in Network Intrusion Detection Systems [6.18778092044887]
ネットワーク侵入検知システムにおける逆問題の性質について検討する。
進化的計算(粒子群最適化と遺伝的アルゴリズム)と深層学習(生成的敵ネットワーク)を、敵対的サンプル生成のためのツールとして利用する。
我々の研究は、敵の摂動に直面した機械学習ベースのNIDSの脆弱性を強調している。
論文 参考訳(メタデータ) (2020-04-23T19:47:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。