論文の概要: EarPass: Secure and Implicit Call Receiver Authentication Using Ear Acoustic Sensing
- arxiv url: http://arxiv.org/abs/2404.15000v1
- Date: Tue, 23 Apr 2024 13:03:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 14:01:50.115132
- Title: EarPass: Secure and Implicit Call Receiver Authentication Using Ear Acoustic Sensing
- Title(参考訳): EarPass:Ear Acoustic Sensing を用いたセキュア・インシシトコール受信者認証
- Authors: Xiping Sun, Jing Chen, Kun He, Zhixiang He, Ruiying Du, Yebo Feng, Qingchuan Zhao, Cong Wu,
- Abstract要約: EarPassは、スマートフォンのセキュアで暗黙的なコールレシーバ認証方式である。
イヤーピーススピーカーを通して難聴の音響信号を送信し、外耳を積極的に感知する。
バランスの取れた精度は96.95%で、エラー率は1.53%である。
- 参考スコア(独自算出の注目度): 14.78387043362623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Private voice communication often contains sensitive information, making it critical to ensure that only authorized users have access to such calls. Unfortunately, current authentication mechanisms, such as PIN-based passwords, fingerprint recognition, and face recognition, fail to authenticate the call receiver, leaving a gap in security. To fill the gap, we present EarPass, a secure and implicit call receiver authentication scheme designed for smartphones. EarPass sends inaudible acoustic signals through the earpiece speaker to actively sense the outer ear, and records echoes using the top microphone. It focuses on extracting ear-related signals from echoes and performs spectrogram analysis in the magnitude and phase domains. To overcome posture and position variability, EarPass utilizes a learning-based feature extractor for extracting representative features, and a one-class classifier for authentication. EarPass does not increase any burdens on users or change users' call answering habits. Furthermore, it does not require extra devices but only uses the speaker and microphone on the smartphone. We conducted comprehensive experiments to evaluate EarPass's effectiveness and security. Our results show that EarPass can achieve a balanced accuracy of 96.95% and an equal error rate of 1.53%. Additionally, EarPass exhibits resilience against potential attacks, including zero-effort attacks and mimicry attacks.
- Abstract(参考訳): プライベート音声通信は、しばしば機密情報を含んでいるため、認証されたユーザだけがそのような呼び出しにアクセスできることを保証することが重要である。
残念ながら、PINベースのパスワード、指紋認証、顔認識などの現在の認証メカニズムは、コールレシーバーの認証に失敗し、セキュリティのギャップが残る。
このギャップを埋めるために、スマートフォン用に設計されたセキュアで暗黙的なコールレシーバ認証方式であるEarPassを提案する。
EarPassはイヤーピーススピーカーを通して難聴の音響信号を送信し、外耳を積極的に感知し、トップマイクを使ってエコーを記録する。
エコーから耳関連信号を抽出することに焦点を当て、大きさと位相領域で分光分析を行う。
姿勢と位置のばらつきを克服するために、EarPassは、学習ベースの特徴抽出器を使用して代表的特徴を抽出し、認証のための一級分類器を使用する。
EarPassは、ユーザの負担を増したり、ユーザの応答習慣を変更したりしない。
さらに、追加のデバイスは必要とせず、スマートフォンのスピーカーとマイクのみを使用する。
EarPassの有効性と安全性を評価するための総合的な実験を行った。
以上の結果から,EarPassは96.95%の平衡精度と1.53%の誤差率が得られることがわかった。
さらに、EarPassはゼロフォート攻撃や模倣攻撃を含む潜在的な攻撃に対するレジリエンスを示す。
関連論文リスト
- Defend Data Poisoning Attacks on Voice Authentication [6.160281428772401]
機械学習による攻撃は、音声認証システムを危険にさらしている。
我々は、畳み込みニューラルネットワークに基づく識別器であるGuardianという、より堅牢な防御手法を提案する。
攻撃されたアカウントの95%を通常のアカウントと区別することができ、60%の精度で既存のアプローチよりもはるかに効果的です。
論文 参考訳(メタデータ) (2022-09-09T22:48:35Z) - Locally Authenticated Privacy-preserving Voice Input [10.82818142802482]
サービスプロバイダはユーザを認証しなければならないが、個人はプライバシの維持を望むかもしれない。
認証の実行中にプライバシを保存することは、特に敵がバイオメトリックデータを使用してトランスフォーメーションツールをトレーニングする場合には、非常に難しい。
ユーザの生信号のデバイス上の指紋をキャプチャして保存する,セキュアでフレキシブルなプライバシ保護システムを導入する。
論文 参考訳(メタデータ) (2022-05-27T14:56:01Z) - Transfer learning using deep neural networks for Ear Presentation Attack
Detection: New Database for PAD [0.0]
PAD(PAD)データベースは公開されていない。
我々は、事前訓練されたディープニューラルネットワークを用いたPAD手法を提案し、WUT-Ear V1.0(Wawaw University of Technology Ear for Presentation Detection)と呼ばれる新しいデータセットをリリースする。
私たちは134人の被験者から8500以上の本物の耳画像と8500以上の偽の耳画像を取得しました。
論文 参考訳(メタデータ) (2021-12-09T22:34:26Z) - PASS: Protected Attribute Suppression System for Mitigating Bias in Face
Recognition [55.858374644761525]
顔認識ネットワークは、識別分類のために訓練されている間、機密属性に関する情報を符号化する。
既存のバイアス緩和アプローチでは、エンドツーエンドのトレーニングが必要であり、高い精度を達成できない。
PASS(Protected Attribute Suppression System)と呼ばれる記述子に基づく逆バイアス除去手法を提案する。
パスは、以前に訓練されたハイパフォーマンスネットワークから得られた記述子を使って、アイデンティティを分類し、機密属性のエンコーディングを同時に削減することができる。
論文 参考訳(メタデータ) (2021-08-09T00:39:22Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Multimodal Personal Ear Authentication Using Smartphones [0.0]
指紋認証は、手が濡れている場合は使用できず、マスクを着用している場合は顔認識は使用できない。
スマートフォンにおける生体認証の新しいアプローチとしてピンナを用いた個人認証システムについて検討する。
論文 参考訳(メタデータ) (2021-03-23T14:19:15Z) - Stay Connected, Leave no Trace: Enhancing Security and Privacy in WiFi
via Obfuscating Radiometric Fingerprints [8.89054576694426]
WiFiチップセットの固有のハードウェア欠陥は、送信された信号に現れ、ユニークなラジオメトリック指紋をもたらす。
近年の研究では、市販品で容易に実装可能な実用的な指紋認証ソリューションが提案されている。
解析的および実験的に、これらのソリューションは偽造攻撃に対して非常に脆弱であることを示す。
本稿では, RF-Veilを提案する。RF-Veilは, 偽造攻撃に対して堅牢なだけでなく, ユーザのプライバシーも保護する。
論文 参考訳(メタデータ) (2020-11-25T11:10:59Z) - FoolHD: Fooling speaker identification by Highly imperceptible
adversarial Disturbances [63.80959552818541]
話者識別モデルに対する知覚不能な摂動を発生させるホワイトボックス・ステガノグラフィーによる敵攻撃を提案する。
我々のアプローチであるFoolHDは、DCTドメインで動作するGated Convolutional Autoencoderを使用し、多目的損失関数で訓練されている。
我々は,VoxCelebを用いて訓練した250話者識別xベクトルネットワークを用いてFoolHDを検証する。
論文 参考訳(メタデータ) (2020-11-17T07:38:26Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - Keystroke Biometrics in Response to Fake News Propagation in a Global
Pandemic [77.79066811371978]
本研究では,キーストロークバイオメトリックスを用いたコンテンツ匿名化手法の提案と解析を行う。
フェイクニュースは、特に主要なイベントにおいて、世論を操作する強力なツールとなっている。
論文 参考訳(メタデータ) (2020-05-15T17:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。