論文の概要: Leveraging Disentangled Representations to Improve Vision-Based
Keystroke Inference Attacks Under Low Data
- arxiv url: http://arxiv.org/abs/2204.02494v1
- Date: Tue, 5 Apr 2022 21:24:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 02:21:48.943014
- Title: Leveraging Disentangled Representations to Improve Vision-Based
Keystroke Inference Attacks Under Low Data
- Title(参考訳): 低データ環境下での視覚に基づくキーストローク推論攻撃改善のためのディスタングル表現の活用
- Authors: John Lim, Jan-Michael Frahm, Fabian Monrose
- Abstract要約: キーストローク推論攻撃(英: Keystroke inference attack)は、攻撃者が様々なテクニックを利用してユーザのキーストロークを復元するサイドチャネル攻撃の一種である。
教師付き非絡み合い学習により合成データを活用できるビデオ領域適応手法を提案する。
提案手法は,本手法が実生活の小さなトレーニングセットに過度に適合することを防止し,本手法がデータ拡張の有効な形態であることを示す。
- 参考スコア(独自算出の注目度): 27.10100715039451
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Keystroke inference attacks are a form of side-channel attacks in which an
attacker leverages various techniques to recover a user's keystrokes as she
inputs information into some display (e.g., while sending a text message or
entering her pin). Typically, these attacks leverage machine learning
approaches, but assessing the realism of the threat space has lagged behind the
pace of machine learning advancements, due in-part, to the challenges in
curating large real-life datasets. We aim to overcome the challenge of having
limited number of real data by introducing a video domain adaptation technique
that is able to leverage synthetic data through supervised disentangled
learning. Specifically, for a given domain, we decompose the observed data into
two factors of variation: Style and Content. Doing so provides four learned
representations: real-life style, synthetic style, real-life content and
synthetic content. Then, we combine them into feature representations from all
combinations of style-content pairings across domains, and train a model on
these combined representations to classify the content (i.e., labels) of a
given datapoint in the style of another domain. We evaluate our method on
real-life data using a variety of metrics to quantify the amount of information
an attacker is able to recover. We show that our method prevents our model from
overfitting to a small real-life training set, indicating that our method is an
effective form of data augmentation, thereby making keystroke inference attacks
more practical.
- Abstract(参考訳): キーストローク推論攻撃(英: key stroke inference attack)は、攻撃者がユーザーのキーストロークを回復するために様々なテクニックを利用するサイドチャネル攻撃の一種である(例えば、テキストメッセージの送信やピンの入力など)。
通常、これらの攻撃は機械学習のアプローチを活用するが、脅威空間の現実性を評価することは、機械学習の進歩のペースに遅れを取っている。
本研究では,教師付き不連続学習により合成データを活用できる映像領域適応手法を導入することで,実データ数を限定する課題を克服することを目的とする。
具体的には、あるドメインについて、観察したデータを、スタイルとコンテンツの2つの要因に分解する。
これにより、実生活スタイル、合成スタイル、実生活コンテンツ、合成コンテンツの4つの学習された表現が得られる。
次に、それらをドメイン間のスタイル・コンテントのペアリングのすべての組み合わせから特徴表現に組み合わせ、これらの組み合わせ表現でモデルを訓練して、あるデータポイントの内容(すなわちラベル)を別のドメインのスタイルで分類する。
本手法は,様々な指標を用いて実生活データに対する評価を行い,攻撃者が回復できる情報量を定量化する。
本手法は,実生活の小さなトレーニングセットへの過剰適合を防止し,本手法がデータ拡張の効果的な形態であることを示し,キーストローク推論攻撃をより実用的なものにすることを示す。
関連論文リスト
- Self-Supervised Disentanglement by Leveraging Structure in Data Augmentations [63.73044203154743]
自己教師付き表現学習は、しばしばデータの「スタイル」属性を誘導するためにデータ拡張を使用する。
データの属性が実際に"スタイル"であり、安全に破棄されるような先入観を推論することは困難である。
スタイル機能を捨てるよりも、スタイル機能を切り離そうとする、より原則化されたアプローチを導入します。
論文 参考訳(メタデータ) (2023-11-15T09:34:08Z) - From Zero to Hero: Detecting Leaked Data through Synthetic Data Injection and Model Querying [10.919336198760808]
分類モデルの学習に使用される漏洩データを検出する新しい手法を提案する。
textscLDSSは、クラス分散の局所的なシフトによって特徴付けられる、少量の合成データを所有者のデータセットに注入する。
これにより、モデルクエリ単独で、リークデータに基づいてトレーニングされたモデルの効果的な識別が可能になる。
論文 参考訳(メタデータ) (2023-10-06T10:36:28Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Evaluating Membership Inference Through Adversarial Robustness [6.983991370116041]
本稿では,敵の強靭性に基づくメンバシップ推論攻撃の強化手法を提案する。
提案手法をFashion-MNIST, CIFAR-10, CIFAR-100の3つのデータセットで評価した。
論文 参考訳(メタデータ) (2022-05-14T06:48:47Z) - Gradient-based Data Subversion Attack Against Binary Classifiers [9.414651358362391]
本研究では,攻撃者がラベルのラベルに毒を盛り,システムの機能を損なうようなラベル汚染攻撃に焦点を当てる。
我々は、予測ラベルに対する微分可能凸損失関数の勾配をウォームスタートとして利用し、汚染するデータインスタンスの集合を見つけるための異なる戦略を定式化する。
本実験は,提案手法がベースラインより優れ,計算効率が高いことを示す。
論文 参考訳(メタデータ) (2021-05-31T09:04:32Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - i-Mix: A Domain-Agnostic Strategy for Contrastive Representation
Learning [117.63815437385321]
対照的な表現学習を改善するために, 単純で効果的なドメインに依存しない正規化戦略i-Mixを提案する。
実験では、i-Mixはドメイン間の学習表現の質を一貫して改善することを示した。
論文 参考訳(メタデータ) (2020-10-17T23:32:26Z) - Revisiting the Threat Space for Vision-based Keystroke Inference Attacks [30.609249754897522]
視覚ベースのキーストローク推論攻撃(英: keytroke inference attack)は、攻撃者が光学デバイスを使用してモバイルデバイス上のユーザを記録し、キーストロークを推測するサイドチャネル攻撃である。
我々は、キーストローク推論攻撃の攻撃シナリオをシミュレートする大規模な合成データセットを作成する。
合成データにCNNを事前学習し、少数の実生活データにトレーニングした後、95.6%の精度が得られる。
論文 参考訳(メタデータ) (2020-09-12T14:03:55Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。