論文の概要: Realistic Website Fingerprinting By Augmenting Network Trace
- arxiv url: http://arxiv.org/abs/2309.10147v1
- Date: Mon, 18 Sep 2023 20:57:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 17:38:29.285890
- Title: Realistic Website Fingerprinting By Augmenting Network Trace
- Title(参考訳): ネットワークトレースによるリアルなWebサイトフィンガープリント
- Authors: Alireza Bahramali, Ardavan Bozorgi, Amir Houmansadr
- Abstract要約: Webサイトフィンガープリント(WF)は、Torユーザの匿名性に対する大きな脅威と考えられている。
ネットワークトレースの増大は、未観測のネットワーク条件下でWF分類器の性能を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 17.590363320978415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Website Fingerprinting (WF) is considered a major threat to the anonymity of
Tor users (and other anonymity systems). While state-of-the-art WF techniques
have claimed high attack accuracies, e.g., by leveraging Deep Neural Networks
(DNN), several recent works have questioned the practicality of such WF attacks
in the real world due to the assumptions made in the design and evaluation of
these attacks. In this work, we argue that such impracticality issues are
mainly due to the attacker's inability in collecting training data in
comprehensive network conditions, e.g., a WF classifier may be trained only on
samples collected on specific high-bandwidth network links but deployed on
connections with different network conditions. We show that augmenting network
traces can enhance the performance of WF classifiers in unobserved network
conditions. Specifically, we introduce NetAugment, an augmentation technique
tailored to the specifications of Tor traces. We instantiate NetAugment through
semi-supervised and self-supervised learning techniques. Our extensive
open-world and close-world experiments demonstrate that under practical
evaluation settings, our WF attacks provide superior performances compared to
the state-of-the-art; this is due to their use of augmented network traces for
training, which allows them to learn the features of target traffic in
unobserved settings. For instance, with a 5-shot learning in a closed-world
scenario, our self-supervised WF attack (named NetCLR) reaches up to 80%
accuracy when the traces for evaluation are collected in a setting unobserved
by the WF adversary. This is compared to an accuracy of 64.4% achieved by the
state-of-the-art Triplet Fingerprinting [35]. We believe that the promising
results of our work can encourage the use of network trace augmentation in
other types of network traffic analysis.
- Abstract(参考訳): Webサイトフィンガープリント(WF)は、Torユーザー(および他の匿名システム)の匿名性に対する大きな脅威と考えられている。
最先端のWF技術は、例えばディープニューラルネットワーク(DNN)を活用して高い攻撃精度を主張しているが、近年のいくつかの研究は、これらの攻撃の設計と評価の前提から、現実世界におけるそのようなWF攻撃の実用性に疑問を呈している。
本研究では,攻撃者が網羅的なネットワーク条件下でのトレーニングデータを収集できないこと,例えば,WF分類器は,特定の高帯域ネットワークリンク上で収集されたサンプルに対してのみ訓練されるが,異なるネットワーク条件との接続に展開される。
ネットワークトレースの増大は、未観測のネットワーク条件下でWF分類器の性能を向上させることができることを示す。
具体的には,Torトレースの仕様に合わせた拡張手法であるNetAugmentを紹介する。
我々は,NetAugmentを半教師付き,自己教師型学習技術によりインスタンス化する。
我々の大規模なオープンワールドとクローズワールドの実験では、我々のWF攻撃は、実際の評価設定の下で、最先端技術と比較して優れたパフォーマンスを提供することを示した。
例えば、クローズドワールドシナリオでの5ショットの学習では、WF敵が観測していない設定で評価用トレースを収集すると、自己教師型WF攻撃(NetCLR)が最大80%精度に達する。
これは最先端のトリプルトフィンガープリント[35]によって達成された64.4%の精度と比較される。
我々の研究の有望な成果は、他の種類のネットワークトラフィック分析におけるネットワークトレース拡張の利用を促進することができると信じている。
関連論文リスト
- Seamless Website Fingerprinting in Multiple Environments [4.226243782049956]
ウェブサイトのフィンガープリント(WF)攻撃は匿名接続で訪れたウェブサイトを識別する。
個々のWebページではなく,Webサイト全体を分類する,新たなアプローチを導入する。
我々の畳み込みニューラルネットワーク(CNN)は、TCPストリームのどの点からでもジッタと500個の連続パケットしか使用しない。
論文 参考訳(メタデータ) (2024-07-28T02:18:30Z) - A Measurement of Genuine Tor Traces for Realistic Website Fingerprinting [5.4482836906033585]
ウェブサイトのフィンガープリント(WF)は、ユーザーが訪問しているウェブサイトを敵が予測できるようにするため、Webプライバシに対する危険な攻撃である。
我々は,Torネットワークの大規模測定により得られたTorトレースの最初のWFデータセットであるGTT23を提案する。
論文 参考訳(メタデータ) (2024-04-11T16:24:49Z) - Genetic Algorithm-Based Dynamic Backdoor Attack on Federated
Learning-Based Network Traffic Classification [1.1887808102491482]
本稿では,GABAttackを提案する。GABAttackは,ネットワークトラフィック分類のためのフェデレーション学習に対する新しい遺伝的アルゴリズムに基づくバックドア攻撃である。
この研究は、ネットワークセキュリティの専門家や実践者がこのような攻撃に対して堅牢な防御策を開発するための警告となる。
論文 参考訳(メタデータ) (2023-09-27T14:02:02Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - NetSentry: A Deep Learning Approach to Detecting Incipient Large-scale
Network Attacks [9.194664029847019]
ネットワーク侵入検出(NID)における機械学習の原理的利用法を示す。
我々は、Bi-ALSTMをベースとした、おそらく最初のNIDSであるNetSentryを提案する。
XSSやWeb bruteforceなどの攻撃検出率を最大3倍に向上させるとともに、最先端技術よりもF1スコアが33%以上上昇することが実証された。
論文 参考訳(メタデータ) (2022-02-20T17:41:02Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。