論文の概要: Revisiting the Threat Space for Vision-based Keystroke Inference Attacks
- arxiv url: http://arxiv.org/abs/2009.05796v1
- Date: Sat, 12 Sep 2020 14:03:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 08:25:06.297003
- Title: Revisiting the Threat Space for Vision-based Keystroke Inference Attacks
- Title(参考訳): 視覚に基づくキーストローク推論攻撃における脅威空間の再検討
- Authors: John Lim, True Price, Fabian Monrose, Jan-Michael Frahm
- Abstract要約: 視覚ベースのキーストローク推論攻撃(英: keytroke inference attack)は、攻撃者が光学デバイスを使用してモバイルデバイス上のユーザを記録し、キーストロークを推測するサイドチャネル攻撃である。
我々は、キーストローク推論攻撃の攻撃シナリオをシミュレートする大規模な合成データセットを作成する。
合成データにCNNを事前学習し、少数の実生活データにトレーニングした後、95.6%の精度が得られる。
- 参考スコア(独自算出の注目度): 30.609249754897522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A vision-based keystroke inference attack is a side-channel attack in which
an attacker uses an optical device to record users on their mobile devices and
infer their keystrokes. The threat space for these attacks has been studied in
the past, but we argue that the defining characteristics for this threat space,
namely the strength of the attacker, are outdated. Previous works do not study
adversaries with vision systems that have been trained with deep neural
networks because these models require large amounts of training data and
curating such a dataset is expensive. To address this, we create a large-scale
synthetic dataset to simulate the attack scenario for a keystroke inference
attack. We show that first pre-training on synthetic data, followed by adopting
transfer learning techniques on real-life data, increases the performance of
our deep learning models. This indicates that these models are able to learn
rich, meaningful representations from our synthetic data and that training on
the synthetic data can help overcome the issue of having small, real-life
datasets for vision-based key stroke inference attacks. For this work, we focus
on single keypress classification where the input is a frame of a keypress and
the output is a predicted key. We are able to get an accuracy of 95.6% after
pre-training a CNN on our synthetic data and training on a small set of
real-life data in an adversarial domain adaptation framework. Source Code for
Simulator:
https://github.com/jlim13/keystroke-inference-attack-synthetic-dataset-generator-
- Abstract(参考訳): 視覚ベースのキーストローク推論攻撃(英: keytroke inference attack)は、攻撃者が光学デバイスを使用してモバイルデバイス上のユーザを記録し、キーストロークを推測するサイドチャネル攻撃である。
これらの攻撃の脅威空間は過去にも研究されてきたが、この脅威空間の定義的特徴、すなわち攻撃者の強さは時代遅れであると主張する。
これらのモデルは大量のトレーニングデータを必要とし、そのようなデータセットをキュレートする費用がかかるため、これまでの研究では、ディープニューラルネットワークでトレーニングされた視覚システムによる敵の研究は行われていない。
これに対処するために,キーストローク推論攻撃に対する攻撃シナリオをシミュレートする大規模な合成データセットを作成する。
まず合成データの事前学習を行い,その後に実生活データに転送学習技術を適用することで,ディープラーニングモデルの性能が向上することを示す。
これは、これらのモデルが私たちの合成データから豊かで有意義な表現を学ぶことができ、合成データに対するトレーニングは、視覚ベースのキーストローク推論攻撃のための小さな実生活データセットを持つという問題を克服するのに役立ちます。
本研究では,入力がキープレスのフレームであり,出力が予測キーである単一キープレス分類に焦点を当てる。
我々の合成データでcnnを事前トレーニングし、敵のドメイン適応フレームワークで小さな実データセットでトレーニングした後、95.6%の精度を得ることができます。
ソースコード: https://github.com/jlim13/key stroke-inference-attack-synthetic-dataset-generator
関連論文リスト
- Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - Downstream Transfer Attack: Adversarial Attacks on Downstream Models with Pre-trained Vision Transformers [95.22517830759193]
本稿では、事前訓練されたViTモデルから下流タスクへのこのような逆の脆弱性の伝達可能性について検討する。
DTAは攻撃成功率(ASR)が90%を超え、既存の手法をはるかに上回っていることを示す。
論文 参考訳(メタデータ) (2024-08-03T08:07:03Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Anticipated Network Surveillance -- An extrapolated study to predict
cyber-attacks using Machine Learning and Data Analytics [0.0]
本稿では、複数のデータパラメータに基づいて、ネットワークにおける今後の攻撃を予測する新しい手法について論じる。
提案するモデルは,データセットの事前処理とトレーニング,続いてテストフェーズで構成される。
テストフェーズの結果に基づいて、攻撃につながる可能性のあるイベントクラスを抽出したベストモデルが選択される。
論文 参考訳(メタデータ) (2023-12-27T01:09:11Z) - When Machine Learning Models Leak: An Exploration of Synthetic Training Data [0.0]
今後2年間で人や家庭が移転するかどうかを予測する機械学習モデルに対する攻撃について検討する。
この攻撃は、攻撃者がモデルをクエリして予測を得ることができ、モデルがトレーニングされたデータの限界分布が公開されていると仮定する。
モデルのトレーニングにおいて、元のデータを合成データに置き換えることが、攻撃者がどのように機密属性を推測できるかにどのように影響するかを検討する。
論文 参考訳(メタデータ) (2023-10-12T23:47:22Z) - From Zero to Hero: Detecting Leaked Data through Synthetic Data Injection and Model Querying [10.919336198760808]
分類モデルの学習に使用される漏洩データを検出する新しい手法を提案する。
textscLDSSは、クラス分散の局所的なシフトによって特徴付けられる、少量の合成データを所有者のデータセットに注入する。
これにより、モデルクエリ単独で、リークデータに基づいてトレーニングされたモデルの効果的な識別が可能になる。
論文 参考訳(メタデータ) (2023-10-06T10:36:28Z) - Leveraging Disentangled Representations to Improve Vision-Based
Keystroke Inference Attacks Under Low Data [27.10100715039451]
キーストローク推論攻撃(英: Keystroke inference attack)は、攻撃者が様々なテクニックを利用してユーザのキーストロークを復元するサイドチャネル攻撃の一種である。
教師付き非絡み合い学習により合成データを活用できるビデオ領域適応手法を提案する。
提案手法は,本手法が実生活の小さなトレーニングセットに過度に適合することを防止し,本手法がデータ拡張の有効な形態であることを示す。
論文 参考訳(メタデータ) (2022-04-05T21:24:41Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - Property Inference Attacks on Convolutional Neural Networks: Influence
and Implications of Target Model's Complexity [1.2891210250935143]
プロパティ推論攻撃は、トレーニングデータセットに関する与えられたモデルプロパティをモデルの主な目標とは無関係に推測することを目的としている。
本稿では,ターゲットモデルの複雑性が攻撃の精度に及ぼす影響について検討する。
その結果,ターゲットモデルの複雑さとは無関係に,プライバシ侵害のリスクがあることが判明した。
論文 参考訳(メタデータ) (2021-04-27T09:19:36Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。