論文の概要: A Survey of Threats Against Voice Authentication and Anti-Spoofing Systems
- arxiv url: http://arxiv.org/abs/2508.16843v4
- Date: Tue, 16 Sep 2025 11:49:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 15:46:32.912325
- Title: A Survey of Threats Against Voice Authentication and Anti-Spoofing Systems
- Title(参考訳): 音声認証とアンチスプーフィングシステムに対する脅威調査
- Authors: Kamel Kamel, Keshav Sood, Hridoy Sankar Dutta, Sunil Aryal,
- Abstract要約: 本調査は, 音声認証システム(VAS)と防汚対策(CM)を対象とする, 近代的な脅威景観を概観するものである。
我々は、音声認証の発展を時系列的に追跡し、技術的進歩と連動して、脆弱性がどのように進化したかを調べる。
新たなリスクとオープンな課題を強調することで,この調査は,よりセキュアでレジリエントな音声認証システムの開発を支援することを目的としている。
- 参考スコア(独自算出の注目度): 5.2851376150891864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Voice authentication has undergone significant changes from traditional systems that relied on handcrafted acoustic features to deep learning models that can extract robust speaker embeddings. This advancement has expanded its applications across finance, smart devices, law enforcement, and beyond. However, as adoption has grown, so have the threats. This survey presents a comprehensive review of the modern threat landscape targeting Voice Authentication Systems (VAS) and Anti-Spoofing Countermeasures (CMs), including data poisoning, adversarial, deepfake, and adversarial spoofing attacks. We chronologically trace the development of voice authentication and examine how vulnerabilities have evolved in tandem with technological advancements. For each category of attack, we summarize methodologies, highlight commonly used datasets, compare performance and limitations, and organize existing literature using widely accepted taxonomies. By highlighting emerging risks and open challenges, this survey aims to support the development of more secure and resilient voice authentication systems.
- Abstract(参考訳): 音声認証は、手作り音響機能に依存する従来のシステムから、頑丈な話者埋め込みを抽出できるディープラーニングモデルに大きく変化した。
この進歩により、金融、スマートデバイス、法執行機関などにも応用範囲を広げた。
しかし、採用が進むにつれて、脅威もある。
本調査では, 音声認証システム(VAS)と防汚対策(CM)を対象とし, データ中毒, 逆境, ディープフェイク, 敵のスプーフィング攻撃など, 現代の脅威景観を包括的に概観する。
我々は、音声認証の発展を時系列的に追跡し、技術的進歩と連動して、脆弱性がどのように進化したかを調べる。
攻撃の各カテゴリについて、方法論を要約し、一般的に使われているデータセットをハイライトし、性能と制限を比較し、広く受け入れられている分類学を用いて既存の文献を整理する。
新たなリスクとオープンな課題を強調することで,この調査は,よりセキュアでレジリエントな音声認証システムの開発を支援することを目的としている。
関連論文リスト
- Aegis: Towards Governance, Integrity, and Security of AI Voice Agents [52.7512082818639]
音声エージェントのガバナンス,整合性,セキュリティのためのフレームワークであるAegisを提案する。
我々は,銀行コールセンタ,ITサポート,ロジスティクスにおけるケーススタディを通じて,この枠組みを評価する。
モデルファミリ間の系統的な差異を観察し,より感受性の高いオープンウェイトモデルを示した。
論文 参考訳(メタデータ) (2026-02-07T05:51:36Z) - Vulnerabilities of Audio-Based Biometric Authentication Systems Against Deepfake Speech Synthesis [21.895422296912454]
非常に小さなサンプルで訓練された現代の音声クローニングモデルは、商用話者認証システムを簡単に回避することができる。
アンチスプーフィング検出器は、様々な音声合成方法の一般化に苦慮している。
論文 参考訳(メタデータ) (2026-01-06T10:55:32Z) - SAFE-QAQ: End-to-End Slow-Thinking Audio-Text Fraud Detection via Reinforcement Learning [52.29460857893198]
既存の不正検出方法は、書き起こされたテキストに依存しており、ASRのエラーや、声調や環境条件のような重要な音響的手がかりが欠けている。
音声に基づくスロー思考詐欺検出のためのエンドツーエンド包括的フレームワークSAFE-QAQを提案する。
本フレームワークは,ライブコール中に動的リスクアセスメントフレームワークを導入し,不正の早期検出と防止を可能にする。
論文 参考訳(メタデータ) (2026-01-04T06:09:07Z) - Synthetic Voices, Real Threats: Evaluating Large Text-to-Speech Models in Generating Harmful Audio [63.18443674004945]
この研究は、TSシステムを利用して有害なコンテンツを含む音声を生成する、コンテンツ中心の脅威を探究する。
HARMGENは、これらの課題に対処する2つのファミリーにまとめられた5つの攻撃群である。
論文 参考訳(メタデータ) (2025-11-14T03:00:04Z) - Spectral Masking and Interpolation Attack (SMIA): A Black-box Adversarial Attack against Voice Authentication and Anti-Spoofing Systems [5.2851376150891864]
SMIA(Spectral Masking and Interpolation Attack)は、AI生成音声の可聴周波数領域を戦略的に操作する新しい手法である。
SMIAは82%以上のVAS/CMシステムに対する攻撃成功率(ASR)、少なくとも97.5%はスタンドアロン話者認証システムに対する攻撃成功率(ASR)、100%は対策として達成された。
この作業は、動的でコンテキスト対応のフレームワークを使用する次世代防衛へのパラダイムシフトの急激な必要性を強調している。
論文 参考訳(メタデータ) (2025-09-09T12:43:59Z) - Deep Learning Models for Robust Facial Liveness Detection [56.08694048252482]
本研究では,現代のアンチスプーフィング手法の欠陥に対処する新しい深層学習モデルを用いて,ロバストな解を提案する。
テクスチャ解析と実際の人間の特性に関連する反射特性を革新的に統合することにより、我々のモデルは、顕著な精度でレプリカと真の存在を区別する。
論文 参考訳(メタデータ) (2025-08-12T17:19:20Z) - Exploiting Vulnerabilities in Speech Translation Systems through Targeted Adversarial Attacks [59.87470192277124]
本稿では,非知覚的音声操作による音声翻訳システム構築手法について検討する。
本研究では,(1)ソース音声への摂動注入,(2)ターゲット翻訳を誘導する対向音楽の生成という2つの革新的なアプローチを提案する。
我々の実験では、注意深く作られた音声摂動は、ターゲットとなる有害な出力を生成するために翻訳モデルを誤解させる可能性があるが、敵対的な音楽はこの目標をより隠蔽的に達成する。
この研究の意味は、直ちにセキュリティ上の懸念を越えて、ニューラル音声処理システムの解釈可能性と堅牢性に光を当てることである。
論文 参考訳(メタデータ) (2025-03-02T16:38:16Z) - Where are we in audio deepfake detection? A systematic analysis over generative and detection models [59.09338266364506]
SONARはAI-Audio Detection FrameworkとBenchmarkの合成である。
最先端のAI合成聴覚コンテンツを識別するための総合的な評価を提供する。
従来のモデルベース検出システムと基礎モデルベース検出システムの両方で、AIオーディオ検出を均一にベンチマークする最初のフレームワークである。
論文 参考訳(メタデータ) (2024-10-06T01:03:42Z) - A Survey on Speech Deepfake Detection [7.3348524333159]
音声ディープフェイクは、現実的な音声を生成し、誤情報を広げることで深刻な脅威となる。
これに対抗するために、ディープフェイク検出技術を推進するために多くの課題が編成されている。
我々は2024年3月までに200以上の論文を体系的に分析した。
論文 参考訳(メタデータ) (2024-04-22T06:52:12Z) - A Practical Survey on Emerging Threats from AI-driven Voice Attacks: How Vulnerable are Commercial Voice Control Systems? [13.115517847161428]
AIによる音声攻撃により、音声制御システムに新たなセキュリティ脆弱性が明らかになった。
本研究は,悪意ある音声攻撃に対する商用音声制御システムのレジリエンスを評価するための試みである。
以上の結果から,商用音声制御システムは既存の脅威に対する耐性を高めることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T21:51:13Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - SoK: A Study of the Security on Voice Processing Systems [2.596028864336544]
我々は、音声処理システムに対するユニークな攻撃の配列を特定し、分類する。
現在の最も頻繁に使われている機械学習システムとディープニューラルネットワークは、現代の音声処理システムの中核にある。
論文 参考訳(メタデータ) (2021-12-24T21:47:06Z) - Practical Attacks on Voice Spoofing Countermeasures [3.388509725285237]
悪意あるアクターが、音声認証を最も厳格な形でバイパスするために、音声サンプルを効率的に作ることができることを示す。
本研究の結果は,攻撃者の脅威を回避し,現代の音声認証システムのセキュリティに疑問を投げかけるものである。
論文 参考訳(メタデータ) (2021-07-30T14:07:49Z) - SoK: The Faults in our ASRs: An Overview of Attacks against Automatic
Speech Recognition and Speaker Identification Systems [28.635467696564703]
音声と話者システムのエンドツーエンドアーキテクチャは、画像空間のそれとはかなり異なる攻撃と防御を行うことを示す。
そして、これらのモデルに対する攻撃はほとんど普遍的に転送できないことを実験的に実証した。
論文 参考訳(メタデータ) (2020-07-13T18:52:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。