論文の概要: Active Voice Authentication
- arxiv url: http://arxiv.org/abs/2004.12071v1
- Date: Sat, 25 Apr 2020 07:08:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 22:19:52.759606
- Title: Active Voice Authentication
- Title(参考訳): アクティブ音声認証
- Authors: Zhong Meng, M Umair Bin Altaf, Biing-Hwang (Fred) Juang
- Abstract要約: 本稿では,従来の短い音声検査信号を用いて,信頼性の高い話者検証を可能にする手法について述べる。
このシステムを開発するために25人の話者のデータベースが記録されている。
リアルタイムのデモシステムはMicrosoft Surface Proで実装されている。
- 参考スコア(独自算出の注目度): 16.300144775820243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active authentication refers to a new mode of identity verification in which
biometric indicators are continuously tested to provide real-time or near
real-time monitoring of an authorized access to a service or use of a device.
This is in contrast to the conventional authentication systems where a single
test in form of a verification token such as a password is performed. In active
voice authentication (AVA), voice is the biometric modality. This paper
describes an ensemble of techniques that make reliable speaker verification
possible using unconventionally short voice test signals. These techniques
include model adaptation and minimum verification error (MVE) training that are
tailored for the extremely short training and testing requirements. A database
of 25 speakers is recorded for developing this system. In our off-line
evaluation on this dataset, the system achieves an average windowed-based equal
error rates of 3-4% depending on the model configuration, which is remarkable
considering that only 1 second of voice data is used to make every single
authentication decision. On the NIST SRE 2001 Dataset, the system provides a
3.88% absolute gain over i-vector when the duration of test segment is 1
second. A real-time demonstration system has been implemented on Microsoft
Surface Pro.
- Abstract(参考訳): アクティブ認証(active authentication)は、認証されたサービスへのアクセスやデバイスの使用をリアルタイムまたはほぼリアルタイムに監視するために、バイオメトリックインジケータを継続的にテストする、新しいアイデンティティ検証モードを指す。
これは、パスワードのような検証トークン形式で1つのテストを実行する従来の認証システムとは対照的である。
アクティブボイス認証(ava)では、音声は生体認証のモダリティである。
本稿では,従来の短い音声検査信号を用いて,信頼性の高い話者検証を可能にする手法について述べる。
これらのテクニックには、極めて短いトレーニングとテスト要件に適したモデル適応と最小検証誤差(MVE)トレーニングが含まれる。
このシステムを開発するために25人の話者のデータベースが記録される。
本データセットのオフライン評価では, モデル構成によって平均ウィンドウベース等角誤差率3~4%を達成し, 音声データの1秒間のみが認証決定に使用されることを考えると注目すべきである。
NIST SRE 2001 Datasetでは、テストセグメントの持続時間が1秒である場合、i-vectorよりも3.88%の絶対的なゲインを提供する。
リアルタイムのデモシステムはMicrosoft Surface Proで実装されている。
関連論文リスト
- Training-Free Deepfake Voice Recognition by Leveraging Large-Scale Pre-Trained Models [52.04189118767758]
一般化は、現在のオーディオディープフェイク検出器の主な問題である。
本稿では,オーディオディープフェイク検出のための大規模事前学習モデルの可能性について検討する。
論文 参考訳(メタデータ) (2024-05-03T15:27:11Z) - Anomalous Sound Detection using Audio Representation with Machine ID
based Contrastive Learning Pretraining [52.191658157204856]
コントラスト学習を用いて、各音声サンプルではなく、各機械IDの音声表現を洗練する。
提案手法では、コントラスト学習を用いて音声表現モデルを事前学習する。
実験の結果,本手法はコントラスト学習や自己教師型分類を用いて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-04-07T11:08:31Z) - Motion ID: Human Authentication Approach [0.0]
我々は、Motion IDと呼ばれるユーザ認証に新しいアプローチを導入する。
この方法は、慣性測定ユニット(IMU)によって提供されるモーションセンシングを用いて、モバイルデバイスが取得したIMUデータの短い時系列を通して人物の身元を確認する。
論文 参考訳(メタデータ) (2023-01-25T09:08:33Z) - Data-driven behavioural biometrics for continuous and adaptive user
verification using Smartphone and Smartwatch [0.0]
行動バイオメトリックスと多要素認証(MFA)をブレンドするアルゴリズムを提案する。
本研究では,モーションベースバイオメトリックスを用いてユーザの身元を検証するための2段階のユーザ検証アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-07T02:46:21Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - A Unified Model for Fingerprint Authentication and Presentation Attack
Detection [1.9703625025720706]
一般的な指紋認識システムの動作を再構築する。
両タスクを同時に実行するためのspoof検出とマッチングのための統合モデルを提案する。
これにより、指紋認識システムの時間とメモリの要件をそれぞれ50%と40%削減できます。
論文 参考訳(メタデータ) (2021-04-07T16:57:38Z) - Few Shot Text-Independent speaker verification using 3D-CNN [0.0]
我々は,ごく少数の学習データを用いて話者の身元を検証するための新しい手法を提案してきた。
VoxCeleb1データセットで行った実験によると、非常に少ないデータでトレーニングしても、提案されたモデルの精度は、テキストに依存しない話者検証において、アートモデルの状態に近い。
論文 参考訳(メタデータ) (2020-08-25T15:03:29Z) - Integrated Replay Spoofing-aware Text-independent Speaker Verification [47.41124427552161]
本稿では,話者認証と提示攻撃検出の統合システムを構築するための2つのアプローチを提案する。
第1のアプローチは、話者識別、提示攻撃検出、マルチタスク学習を用いた統合システムとを同時に訓練する。
本稿では、話者検証と提示攻撃検出に分離されたディープニューラルネットワーク(DNN)を用いたバックエンドモジュール方式を提案する。
論文 参考訳(メタデータ) (2020-06-10T01:24:55Z) - Streaming Language Identification using Combination of Acoustic
Representations and ASR Hypotheses [13.976935216584298]
多言語音声認識の一般的なアプローチは、複数の単言語ASRシステムを並列に実行することである。
本研究では,音響レベルの表現とASR仮説に基づく埋め込みを学習し,組み合わせる手法を提案する。
処理コストとレイテンシを低減するため,我々はストリーミングアーキテクチャを利用して音声言語を早期に識別する。
論文 参考訳(メタデータ) (2020-06-01T04:08:55Z) - Deep Speaker Embeddings for Far-Field Speaker Recognition on Short
Utterances [53.063441357826484]
深層話者埋め込みに基づく話者認識システムは,制御条件下での大幅な性能向上を実現している。
制御されていない雑音環境下での短い発話に対する話者検証は、最も困難で要求の高いタスクの1つである。
本稿では,a)環境騒音の有無による遠距離話者検証システムの品質向上,b)短時間発話におけるシステム品質劣化の低減という2つの目標を達成するためのアプローチを提案する。
論文 参考訳(メタデータ) (2020-02-14T13:34:33Z) - End-to-End Automatic Speech Recognition Integrated With CTC-Based Voice
Activity Detection [48.80449801938696]
本稿では,音声活動検出機能とエンドツーエンドの自動音声認識を統合する。
我々は,コネクショニストの時間的分類(CTC)と,同期/アテンションの拡張に焦点を当てた。
簡単なしきい値を用いた音声区間検出のためのキューとしてラベルを用いる。
論文 参考訳(メタデータ) (2020-02-03T03:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。