論文の概要: AWA: Adversarial Website Adaptation
- arxiv url: http://arxiv.org/abs/2012.10832v2
- Date: Tue, 13 Apr 2021 16:20:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 04:38:53.788861
- Title: AWA: Adversarial Website Adaptation
- Title(参考訳): AWA: Adversarial Website Adaptation
- Authors: Amir Mahdi Sadeghzadeh, Behrad Tajali, and Rasool Jalili
- Abstract要約: 敵対的ディープラーニングアプローチを用いたWebサイトのフィンガープリント攻撃に対する新たな防御を提案する。
AWAは各ランにトランスフォーマーセットを生成し、それぞれのWebサイトがユニークなトランスフォーマーを持つようにする。
AWAにはUniversal AWAとNon-Universal AWAの2つのバージョンがある。
- 参考スコア(独自算出の注目度): 1.3190581566723918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the most important obligations of privacy-enhancing technologies is to
bring confidentiality and privacy to users' browsing activities on the
Internet. The website fingerprinting attack enables a local passive
eavesdropper to predict the target user's browsing activities even she uses
anonymous technologies, such as VPNs, IPsec, and Tor. Recently, the growth of
deep learning empowers adversaries to conduct the website fingerprinting attack
with higher accuracy. In this paper, we propose a new defense against website
fingerprinting attack using adversarial deep learning approaches called
Adversarial Website Adaptation (AWA). AWA creates a transformer set in each run
so that each website has a unique transformer. Each transformer generates
adversarial traces to evade the adversary's classifier. AWA has two versions,
including Universal AWA (UAWA) and Non-Universal AWA (NUAWA). Unlike NUAWA,
there is no need to access the entire trace of a website in order to generate
an adversarial trace in UAWA. We accommodate secret random elements in the
training phase of transformers in order for AWA to generate various sets of
transformers in each run. We run AWA several times and create multiple sets of
transformers. If an adversary and a target user select different sets of
transformers, the accuracy of adversary's classifier is almost 19.52% and
31.94% with almost 22.28% and 26.28% bandwidth overhead in UAWA and NUAWA,
respectively. If a more powerful adversary generates adversarial traces through
multiple sets of transformers and trains a classifier on them, the accuracy of
adversary's classifier is almost 49.10% and 25.93% with almost 62.52% and
64.33% bandwidth overhead in UAWA and NUAW, respectively.
- Abstract(参考訳): プライバシー強化技術の最も重要な義務の1つは、インターネット上のユーザーのブラウジング活動に機密性とプライバシーをもたらすことである。
ウェブサイトの指紋認証攻撃により、ローカルの受動的盗聴者がVPN、IPsec、Torなどの匿名技術を使用しても、ターゲットユーザーの閲覧活動を予測できる。
近年,深層学習の発達により,ウェブサイトの指紋認証攻撃を精度良く行うことができるようになった。
本稿では,Adversarial Website Adaptation (AWA) と呼ばれる,敵対的深層学習アプローチを用いたWebサイト指紋認証攻撃に対する新たな防御法を提案する。
AWAは各ランにトランスフォーマーセットを生成し、それぞれのWebサイトがユニークなトランスフォーマーを持つようにする。
各変換器は、相手の分類器を避けるために逆トレースを生成する。
AWAにはUniversal AWA(UAWA)とNon-Universal AWA(NUAWA)の2つのバージョンがある。
NUAWAとは異なり、UAWAで敵対的トレースを生成するために、Webサイトの全トレースにアクセスする必要はない。
我々は、AWAが各ランで様々な変圧器を生成するために、変圧器の訓練段階で秘密のランダム要素を許容する。
私たちはAWAを数回実行し、複数のトランスフォーマーを作成します。
相手が異なる変圧器を選択する場合、相手の分類器の精度は19.52%、31.94%であり、それぞれUAWAとNUAWAでは22.28%、帯域幅は26.28%である。
より強力な敵が複数の変圧器を通して敵の痕跡を生成し、分類器を訓練すると、敵の分類器の精度は49.10%、25.93%であり、それぞれUAWAとNUAWの帯域オーバーヘッドは62.52%、64.33%である。
関連論文リスト
- Adversarial Robustness of In-Context Learning in Transformers for Linear Regression [23.737606860443705]
本研究は,線形回帰タスクの設定に焦点をあてたテキストハイザック攻撃に対するトランスフォーマにおける文脈内学習の脆弱性について検討する。
まず,一層線形変圧器が非破壊的であり,任意の予測を出力できることを示す。
次に, 逆行訓練は, ファインタニング時にのみ適用しても, ハイジャック攻撃に対するトランスフォーマーの堅牢性を高めることを実証する。
論文 参考訳(メタデータ) (2024-11-07T21:25:58Z) - Transformers Provably Learn Sparse Token Selection While Fully-Connected Nets Cannot [50.16171384920963]
トランスフォーマーアーキテクチャは 様々なディープラーニング環境で普及しています
勾配降下で訓練された一層変圧器はスパーストークン選択タスクを確実に学習する。
論文 参考訳(メタデータ) (2024-06-11T02:15:53Z) - Transformers in Remote Sensing: A Survey [76.95730131233424]
我々は、リモートセンシングにおけるトランスフォーマーに基づく進化の体系的レビューを初めて行った。
本調査では,60以上の変圧器を用いたリモートセンシング手法について検討した。
リモートセンシングにおけるトランスフォーマーの様々な課題とオープンな課題を議論し、調査を締めくくった。
論文 参考訳(メタデータ) (2022-09-02T17:57:05Z) - APRIL: Finding the Achilles' Heel on Privacy for Vision Transformers [24.46941587056615]
フェデレートされた学習フレームワークは一般的に、プライバシーを守るためにトレーニングデータを共有する代わりに、共同作業者に共通のモデルのローカルな勾配更新を共有するように要求する。
Gradient Leakage Attacksに関する以前の研究は、プライベートトレーニングデータが勾配から明らかになることを示した。
APRIL - Attention PRIvacy Leakageを提案する。
論文 参考訳(メタデータ) (2021-12-28T10:51:26Z) - DBIA: Data-free Backdoor Injection Attack against Transformer Networks [6.969019759456717]
CV指向トランスネットワークに対するデータフリーバックドア攻撃であるDBIAを提案する。
弊社のアプローチでは、バックドアを高い成功率で埋め込むことができ、被害者のトランスフォーマーの性能への影響も低い。
論文 参考訳(メタデータ) (2021-11-22T08:13:51Z) - Towards Training Stronger Video Vision Transformers for
EPIC-KITCHENS-100 Action Recognition [27.760120524736678]
EPIC-KITCHENS-100行動認識データセット上で,より強力な映像ビジョン変換器をトレーニングするための実験結果を示す。
単一のViViTモデルはEPIC-KITCHENS-100データセットの検証セットで47.4%のパフォーマンスを達成する。
ビデオトランスフォーマーは,動詞-名詞行動予測タスクにおいて,名詞を予測するのに特に優れていることがわかった。
論文 参考訳(メタデータ) (2021-06-09T13:26:02Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - On the Robustness of Vision Transformers to Adversarial Examples [7.627299398469961]
視覚変換器のロバスト性について, 逆例を用いて検討する。
我々は,CNNとトランスフォーマーの相互変換が困難であることを示す。
ブラックボックスの敵の下では、クリーンな精度を犠牲にすることなく、アンサンブルが前例のない堅牢性を達成できることが示される。
論文 参考訳(メタデータ) (2021-03-31T00:29:12Z) - TransCenter: Transformers with Dense Queries for Multiple-Object
Tracking [87.75122600164167]
私たちは、標準表現(バウンディングボックス)は、マルチオブジェクトトラッキングのためのトランスフォーマー学習に適応していないと主張している。
複数のターゲットの中心を追跡するトランスフォーマーベースのアーキテクチャであるTransCenterを提案する。
論文 参考訳(メタデータ) (2021-03-28T14:49:36Z) - Overcomplete Representations Against Adversarial Videos [72.04912755926524]
敵対ビデオ(OUDefend)に対する防御のための新しいオーバー・アンド・アンダー完全修復ネットワークを提案します。
OUDefendは、これらの2つの表現を学習することで、ローカル機能とグローバル機能のバランスをとるように設計されている。
実験の結果,画像に焦点をあてた防御はビデオに効果がない可能性があるが,oudefendは異なるタイプの敵ビデオに対して頑健性を高める。
論文 参考訳(メタデータ) (2020-12-08T08:00:17Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。