論文の概要: EarCapAuth: Biometric Method for Earables Using Capacitive Sensing Eartips
- arxiv url: http://arxiv.org/abs/2411.04657v1
- Date: Thu, 07 Nov 2024 12:35:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:35:20.289124
- Title: EarCapAuth: Biometric Method for Earables Using Capacitive Sensing Eartips
- Title(参考訳): EarCapAuth:容量センシングによる耳介の生体計測法
- Authors: Richard Hanser, Tobias Röddiger, Till Riedel, Michael Beigl,
- Abstract要約: EarCapAuthは、48個の静電容量電極を2つの耳栓の軟質シリコンイヤーチップに埋め込んだ認証機構である。
識別のために、EarCapAuthは89.95%を達成している。
将来的には、EarCapAuthは高解像度の脳センサー電極チップに統合される可能性がある。
- 参考スコア(独自算出の注目度): 5.958529344837165
- License:
- Abstract: Earphones can give access to sensitive information via voice assistants which demands security methods that prevent unauthorized use. Therefore, we developed EarCapAuth, an authentication mechanism using 48 capacitive electrodes embedded into the soft silicone eartips of two earables. For evaluation, we gathered capactive ear canal measurements from 20 participants in 20 wearing sessions (12 at rest, 8 while walking). A per user classifier trained for authentication achieves an EER of 7.62% and can be tuned to a FAR (False Acceptance Rate) of 1% at FRR (False Rejection Rate) of 16.14%. For identification, EarCapAuth achieves 89.95%. This outperforms some earable biometric principles from related work. Performance under motion slightly decreased to 9.76% EER for authentication and 86.40% accuracy for identification. Enrollment can be performed rapidly with multiple short earpiece insertions and a biometric decision is made every 0.33s. In the future, EarCapAuth could be integrated into high-resolution brain sensing electrode tips.
- Abstract(参考訳): イヤホンは、不正使用を防ぐためのセキュリティ方法を要求するボイスアシスタントを介して、機密情報にアクセスすることができる。
そこで我々は,48個の静電容量電極を2つの耳栓の軟質シリコン耳栓に埋め込んだ認証機構であるEarCapAuthを開発した。
評価のために,20名中20名(安静時12名,歩行時8名)の有蓋耳道計測を行った。
認証のために訓練されたユーザ単位の分類器はEERが7.62%に達し、FRR(False Rejection Rate)のFAR(False Acceptance Rate)が16.14%に調整できる。
識別に関しては、EarCapAuthは89.95%を達成している。
これは、関連する研究から、耳の届く生体認証の原理を上回ります。
動作中の性能はわずかに低下し、認証は9.76%、認証は86.40%となった。
複数個の短い耳栓を挿入して迅速に登録することができ、生体認証は0.33秒毎に行われる。
将来的には、EarCapAuthは高解像度の脳センサー電極チップに統合される可能性がある。
関連論文リスト
- Advancing Ear Biometrics: Enhancing Accuracy and Robustness through Deep Learning [0.9910347287556193]
生体認証は、個々の身体的特徴や行動的特徴に基づいて個人を検証するための信頼性の高い方法である。
本研究は,耳の生体認証に焦点をあて,その特徴を精度,信頼性,ユーザビリティの向上に活用する。
論文 参考訳(メタデータ) (2024-05-31T18:55:10Z) - EarPass: Secure and Implicit Call Receiver Authentication Using Ear Acoustic Sensing [14.78387043362623]
EarPassは、スマートフォンのセキュアで暗黙的なコールレシーバ認証方式である。
イヤーピーススピーカーを通して難聴の音響信号を送信し、外耳を積極的に感知する。
バランスの取れた精度は96.95%で、エラー率は1.53%である。
論文 参考訳(メタデータ) (2024-04-23T13:03:09Z) - Ear-Keeper: Real-time Diagnosis of Ear Lesions Utilizing Ultralight-Ultrafast ConvNet and Large-scale Ear Endoscopic Dataset [7.5179664143779075]
リアルタイム耳疾患診断が可能な超高速・超軽量ネットワークBest-EarNetを提案する。
パラメータ0.77Mしか持たないBest-EarNetの精度は95.23%(内部22,581枚)、92.14%(外部1,652枚)である。
Best-EarNetをベースとしたインテリジェント診断システムであるEar-Keeperが成功し、一般的な電子機器にデプロイされた。
論文 参考訳(メタデータ) (2023-08-21T10:20:46Z) - Facial Soft Biometrics for Recognition in the Wild: Recent Works,
Annotation, and COTS Evaluation [63.05890836038913]
制約のないシナリオにおける人物認識システムを強化するために,ソフトバイオメトリックスが果たす役割について検討する。
1) ソフトバイオメトリックスのマニュアル推定と,2) 市販オフザシェルフシステムによる自動推定の2つの仮定を考察する。
深層学習に基づく2つの最先端顔認識システムを用いた軟式生体計測実験を行った。
論文 参考訳(メタデータ) (2022-10-24T11:29:57Z) - Transfer learning using deep neural networks for Ear Presentation Attack
Detection: New Database for PAD [0.0]
PAD(PAD)データベースは公開されていない。
我々は、事前訓練されたディープニューラルネットワークを用いたPAD手法を提案し、WUT-Ear V1.0(Wawaw University of Technology Ear for Presentation Detection)と呼ばれる新しいデータセットをリリースする。
私たちは134人の被験者から8500以上の本物の耳画像と8500以上の偽の耳画像を取得しました。
論文 参考訳(メタデータ) (2021-12-09T22:34:26Z) - A Generic Deep Learning Based Cough Analysis System from Clinically
Validated Samples for Point-of-Need Covid-19 Test and Severity Levels [85.41238731489939]
臨床検体8,380名を対象に,Covid-19の迅速一次スクリーニングツールの検出性能について検討した。
提案手法は,経験的モード分解(EMD)に基づくアルゴリズムであり,その後に音声特徴量に基づく分類を行う。
DeepCoughの2つの異なるバージョン、すなわちDeepCough2DとDeepCough3Dのテンソル次元について検討した。
論文 参考訳(メタデータ) (2021-11-10T19:39:26Z) - Project Achoo: A Practical Model and Application for COVID-19 Detection
from Recordings of Breath, Voice, and Cough [55.45063681652457]
コンシューマー端末で録音した音声を用いて、新型コロナウイルスを迅速にトリアージする機械学習手法を提案する。
この手法は,信号処理手法と微調整深層学習ネットワークを組み合わせることで,信号の識別,コークス検出,分類を行う手法を提供する。
我々はまた、症状チェッカーと音声、息、うず信号を使って新型コロナウイルスの感染を検知するモバイルアプリケーションを開発し、展開した。
論文 参考訳(メタデータ) (2021-07-12T08:07:56Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Exploring Deep Learning for Joint Audio-Visual Lip Biometrics [54.32039064193566]
音声視覚(AV)リップバイオメトリックスは、音声通信における音声と視覚の両方の利点を利用する有望な認証技術である。
大規模なAVデータベースの欠如は、ディープラーニングベースのオーディオビジュアルリップバイオメトリックの探索を妨げる。
我々は、畳み込みニューラルネットワーク(CNN)ベースのビデオモジュール、時間遅延ニューラルネットワーク(TDNN)ベースのオーディオモジュール、マルチモーダル融合モジュールで実現されたDeepLip AVリップバイオメトリックスシステムを確立する。
論文 参考訳(メタデータ) (2021-04-17T10:51:55Z) - Ear Recognition [0.0]
耳のバイオメトリックスは、主に非侵襲的で、適切に永続的で正確であることが証明されている。
異なる耳認識技術は、顔認識技術と同じくらい効果的であることが証明されています。
論文 参考訳(メタデータ) (2021-01-26T03:26:00Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。