論文の概要: Unlearning-Enhanced Website Fingerprinting Attack: Against Backdoor Poisoning in Anonymous Networks
- arxiv url: http://arxiv.org/abs/2506.13563v1
- Date: Mon, 16 Jun 2025 14:48:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.704824
- Title: Unlearning-Enhanced Website Fingerprinting Attack: Against Backdoor Poisoning in Anonymous Networks
- Title(参考訳): 未学習のWebサイトフィンガープリント攻撃:匿名ネットワークにおけるバックドア攻撃
- Authors: Yali Yuan, Kai Xu, Ruolin Ma, Yuchen Zhang,
- Abstract要約: Webサイトフィンガープリント(WF)は、ダークウェブを規制し管理するための効果的なツールである。
本稿ではWFが直面している隠れたバックドア毒殺事件に対処することを目的とする。
自動毒点検出と破壊効果の完全除去を実現するために,未学習技術を統合したモシドを提案する。
- 参考スコア(独自算出の注目度): 10.346437766591139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Website Fingerprinting (WF) is an effective tool for regulating and governing the dark web. However, its performance can be significantly degraded by backdoor poisoning attacks in practical deployments. This paper aims to address the problem of hidden backdoor poisoning attacks faced by Website Fingerprinting attack, and designs a feasible mothed that integrates unlearning technology to realize detection of automatic poisoned points and complete removal of its destructive effects, requiring only a small number of known poisoned test points. Taking Tor onion routing as an example, our method evaluates the influence value of each training sample on these known poisoned test points as the basis for judgment. We optimize the use of influence scores to identify poisoned samples within the training dataset. Furthermore, by quantifying the difference between the contribution of model parameters on the taining data and the clean data, the target parameters are dynamically adjusted to eliminate the impact of the backdoor attacks. Experiments on public datasets under the assumptions of closed-world (CW) and open-world (OW) verify the effectiveness of the proposed method. In complex scenes containing both clean website fingerprinting features and backdoor triggers, the accuracy of the model on the poisoned dataset and the test dataset is stable at about 80%, significantly outperforming the traditional WF attack models. In addition, the proposed method achieves a 2-3 times speedup in runtime efficiency compared to baseline methods. By incorporating machine unlearning, we realize a WF attack model that exhibits enhanced resistance to backdoor poisoning and faster execution speeds in adversarial settings.
- Abstract(参考訳): Webサイトフィンガープリント(WF)は、ダークウェブを規制し管理するための効果的なツールである。
しかし、その性能は、実践的な展開においてバックドア中毒攻撃によって著しく低下する可能性がある。
本研究の目的は,Webサイトフィンガープリント攻撃による裏口毒の隠蔽問題に対処することであり,無学習技術を統合して自動毒点の検出と破壊効果の完全除去を実現し,少数の既知の毒点しか必要としない,実現可能なモシドを設計することである。
本手法は,Torオニオンルーティングを例として,これらの既知の有毒試験点に対する各トレーニングサンプルの影響を判定基準として評価する。
トレーニングデータセット内の有毒なサンプルを識別するために、影響スコアの使用を最適化する。
さらに、係留データに対するモデルパラメータの寄与とクリーンデータとの差を定量化することにより、対象パラメータを動的に調整し、バックドア攻撃の影響を排除する。
クローズドワールド(CW)とオープンワールド(OW)の仮定に基づく公開データセットの実験により,提案手法の有効性が検証された。
クリーンなWebサイトの指紋認証機能とバックドアトリガーの両方を含む複雑なシーンでは、有毒なデータセットとテストデータセットのモデルの精度が約80%安定しており、従来のWF攻撃モデルよりも大幅に向上している。
さらに,提案手法は,ベースライン法に比べて実行効率が2~3倍の高速化を実現している。
マシン・アンラーニングを取り入れることで、バックドア中毒に対する耐性を高め、敵の環境下での高速な実行速度を示すWF攻撃モデルを実現する。
関連論文リスト
- Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Mellivora Capensis: A Backdoor-Free Training Framework on the Poisoned Dataset without Auxiliary Data [29.842087372804905]
本稿では,現実シナリオにおけるバックドア攻撃対策の課題について述べる。
本稿では,モデルトレーナーが有毒なデータセット上でクリーンなモデルをトレーニングできるようにする,堅牢でクリーンなデータのないバックドア防御フレームワークであるMellivora Capensis(textttMeCa)を提案する。
論文 参考訳(メタデータ) (2024-05-21T12:20:19Z) - Defending Against Weight-Poisoning Backdoor Attacks for Parameter-Efficient Fine-Tuning [57.50274256088251]
パラメータ効率のよい微調整(PEFT)は,重み付けによるバックドア攻撃の影響を受けやすいことを示す。
PEFTを利用したPSIM(Poisoned Sample Identification Module)を開発した。
テキスト分類タスク,5つの微調整戦略,および3つの重み付けバックドア攻撃手法について実験を行った。
論文 参考訳(メタデータ) (2024-02-19T14:22:54Z) - Protecting Model Adaptation from Trojans in the Unlabeled Data [120.42853706967188]
本稿では,よく設計された毒物標的データによるモデル適応に対するトロイの木馬攻撃の可能性について検討する。
本稿では,既存の適応アルゴリズムとシームレスに統合可能なDiffAdaptというプラグイン・アンド・プレイ手法を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - Demystifying Poisoning Backdoor Attacks from a Statistical Perspective [35.30533879618651]
バックドア攻撃は、そのステルス性や潜在的に深刻な影響により、重大なセキュリティリスクを引き起こす。
本稿では,一定のトリガを組み込んだバックドア攻撃の有効性を評価する。
我々の導出した理解は、識別モデルと生成モデルの両方に適用できる。
論文 参考訳(メタデータ) (2023-10-16T19:35:01Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - Systematic Evaluation of Backdoor Data Poisoning Attacks on Image
Classifiers [6.352532169433872]
コンピュータビジョン研究において、機械学習(ML)システムの潜在的な安全性リスクとして、バックドアデータ中毒攻撃が実証されている。
我々の研究は、ML画像分類器のための事前のバックドアデータポゾン研究に基づいている。
有毒なモデルでは、パフォーマンス検査だけでは検出が難しいことが分かりました。
論文 参考訳(メタデータ) (2020-04-24T02:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。