論文の概要: Dictionary Attack on IMU-based Gait Authentication
- arxiv url: http://arxiv.org/abs/2309.11766v1
- Date: Thu, 21 Sep 2023 04:00:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 16:51:42.797924
- Title: Dictionary Attack on IMU-based Gait Authentication
- Title(参考訳): IMUに基づく歩行認証に関する辞書攻撃
- Authors: Rajesh Kumar and Can Isik and Chilukuri K. Mohan
- Abstract要約: スマートフォンに内蔵された慣性計測ユニット(IMU)によって記録された歩行パターンを利用する認証システムに対する新たな逆方向モデルを提案する。
攻撃のアイデアは、知識(PINまたはパスワード)ベースの認証システムに対する辞書攻撃という概念にインスパイアされ、命名された。
- 参考スコア(独自算出の注目度): 2.204806197679781
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel adversarial model for authentication systems that use gait
patterns recorded by the inertial measurement unit (IMU) built into
smartphones. The attack idea is inspired by and named after the concept of a
dictionary attack on knowledge (PIN or password) based authentication systems.
In particular, this work investigates whether it is possible to build a
dictionary of IMUGait patterns and use it to launch an attack or find an
imitator who can actively reproduce IMUGait patterns that match the target's
IMUGait pattern. Nine physically and demographically diverse individuals walked
at various levels of four predefined controllable and adaptable gait factors
(speed, step length, step width, and thigh-lift), producing 178 unique IMUGait
patterns. Each pattern attacked a wide variety of user authentication models.
The deeper analysis of error rates (before and after the attack) challenges the
belief that authentication systems based on IMUGait patterns are the most
difficult to spoof; further research is needed on adversarial models and
associated countermeasures.
- Abstract(参考訳): スマートフォンに内蔵された慣性計測ユニット(IMU)によって記録された歩行パターンを利用する認証システムに対する新たな逆方向モデルを提案する。
攻撃のアイデアは、知識(PINまたはパスワード)ベースの認証システムに対する辞書攻撃の概念に触発され、命名された。
特に、IMUGaitパターンの辞書を作成して攻撃を開始するか、ターゲットのIMUGaitパターンにマッチするIMUGaitパターンを積極的に再現できる模倣者を見つけることができるかを検討する。
9人の身体的および人口的多様な個体が、予め定義された4つの歩行因子(速度、歩幅、歩幅、大腿リフト)の様々なレベルを歩行し、178種類のIMUGaitパターンを生み出した。
各パターンは様々なユーザー認証モデルを攻撃した。
IMUGaitパターンに基づく認証システムが最も難解であるという考えに対して、攻撃前および攻撃後におけるエラー率のより深い分析は、敵のモデルや関連する対策についてさらなる研究が必要である。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Model Pairing Using Embedding Translation for Backdoor Attack Detection on Open-Set Classification Tasks [63.269788236474234]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
このスコアは、異なるアーキテクチャのモデルがあるにもかかわらず、バックドアの存在を示す指標であることを示している。
この技術は、オープンセット分類タスク用に設計されたモデル上のバックドアの検出を可能にするが、文献ではほとんど研究されていない。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - PRAT: PRofiling Adversarial aTtacks [52.693011665938734]
PRofiling Adversarial aTacks (PRAT) の新たな問題点について紹介する。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
AIDを用いてPRATの目的のための新しいフレームワークを考案する。
論文 参考訳(メタデータ) (2023-09-20T07:42:51Z) - ChatGPT as an Attack Tool: Stealthy Textual Backdoor Attack via Blackbox
Generative Model Trigger [11.622811907571132]
テキストバックドア攻撃は既存のシステムに現実的な脅威をもたらす。
GPT-4のような最先端の生成モデルでは、リライトを異常なレベルに押し上げるため、そのような攻撃はより検出しにくくなっている。
我々は、バックドア攻撃ツールとしてのブラックボックス生成モデルの役割を包括的に調査し、相対防衛戦略の研究の重要性を強調した。
論文 参考訳(メタデータ) (2023-04-27T19:26:25Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Detecting Backdoors in Deep Text Classifiers [43.36440869257781]
本稿では,テキスト分類モデルに対するバックドア攻撃を一般化する,最初の堅牢な防御機構を提案する。
我々の技術は、データ中毒や重毒など、最先端のバックドア攻撃に対する防御に極めて正確です。
論文 参考訳(メタデータ) (2022-10-11T07:48:03Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - Backdoor Attacks on Crowd Counting [63.90533357815404]
クラウドカウント(Crowd counting)は、シーンイメージ内の人数を推定する回帰タスクである。
本稿では,深層学習に基づくクラウドカウントモデルのバックドア攻撃に対する脆弱性について検討する。
論文 参考訳(メタデータ) (2022-07-12T16:17:01Z) - Evaluating Deep Learning Models and Adversarial Attacks on
Accelerometer-Based Gesture Authentication [6.961253535504979]
我々は、DC-GAN(Deep Convolutional Generative Adversarial Network)を用いて、敵対的サンプルを作成する。
私たちのディープラーニングモデルは、このような攻撃シナリオに対して驚くほど堅牢であることを示します。
論文 参考訳(メタデータ) (2021-10-03T00:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。