論文の概要: A Survey of Threats Against Voice Authentication and Anti-Spoofing Systems
- arxiv url: http://arxiv.org/abs/2508.16843v3
- Date: Tue, 09 Sep 2025 10:41:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:26.926131
- Title: A Survey of Threats Against Voice Authentication and Anti-Spoofing Systems
- Title(参考訳): 音声認証とアンチスプーフィングシステムに対する脅威調査
- Authors: Kamel Kamel, Keshav Sood, Hridoy Sankar Dutta, Sunil Aryal,
- Abstract要約: 本調査は, 音声認証システム(VAS)と防汚対策(CM)を対象とする, 近代的な脅威景観を概観するものである。
我々は、音声認証の発展を時系列的に追跡し、技術的進歩と連動して、脆弱性がどのように進化したかを調べる。
新たなリスクとオープンな課題を強調することで,この調査は,よりセキュアでレジリエントな音声認証システムの開発を支援することを目的としている。
- 参考スコア(独自算出の注目度): 5.2851376150891864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Voice authentication has undergone significant changes from traditional systems that relied on handcrafted acoustic features to deep learning models that can extract robust speaker embeddings. This advancement has expanded its applications across finance, smart devices, law enforcement, and beyond. However, as adoption has grown, so have the threats. This survey presents a comprehensive review of the modern threat landscape targeting Voice Authentication Systems (VAS) and Anti-Spoofing Countermeasures (CMs), including data poisoning, adversarial, deepfake, and adversarial spoofing attacks. We chronologically trace the development of voice authentication and examine how vulnerabilities have evolved in tandem with technological advancements. For each category of attack, we summarize methodologies, highlight commonly used datasets, compare performance and limitations, and organize existing literature using widely accepted taxonomies. By highlighting emerging risks and open challenges, this survey aims to support the development of more secure and resilient voice authentication systems.
- Abstract(参考訳): 音声認証は、手作り音響機能に依存する従来のシステムから、頑丈な話者埋め込みを抽出できるディープラーニングモデルに大きく変化した。
この進歩により、金融、スマートデバイス、法執行機関などにも応用範囲を広げた。
しかし、採用が進むにつれて、脅威もある。
本調査では, 音声認証システム(VAS)と防汚対策(CM)を対象とし, データ中毒, 逆境, ディープフェイク, 敵のスプーフィング攻撃など, 現代の脅威景観を包括的に概観する。
我々は、音声認証の発展を時系列的に追跡し、技術的進歩と連動して、脆弱性がどのように進化したかを調べる。
攻撃の各カテゴリについて、方法論を要約し、一般的に使われているデータセットをハイライトし、性能と制限を比較し、広く受け入れられている分類学を用いて既存の文献を整理する。
新たなリスクとオープンな課題を強調することで,この調査は,よりセキュアでレジリエントな音声認証システムの開発を支援することを目的としている。
関連論文リスト
- Deep Learning Models for Robust Facial Liveness Detection [56.08694048252482]
本研究では,現代のアンチスプーフィング手法の欠陥に対処する新しい深層学習モデルを用いて,ロバストな解を提案する。
テクスチャ解析と実際の人間の特性に関連する反射特性を革新的に統合することにより、我々のモデルは、顕著な精度でレプリカと真の存在を区別する。
論文 参考訳(メタデータ) (2025-08-12T17:19:20Z) - Exploiting Vulnerabilities in Speech Translation Systems through Targeted Adversarial Attacks [59.87470192277124]
本稿では,非知覚的音声操作による音声翻訳システム構築手法について検討する。
本研究では,(1)ソース音声への摂動注入,(2)ターゲット翻訳を誘導する対向音楽の生成という2つの革新的なアプローチを提案する。
我々の実験では、注意深く作られた音声摂動は、ターゲットとなる有害な出力を生成するために翻訳モデルを誤解させる可能性があるが、敵対的な音楽はこの目標をより隠蔽的に達成する。
この研究の意味は、直ちにセキュリティ上の懸念を越えて、ニューラル音声処理システムの解釈可能性と堅牢性に光を当てることである。
論文 参考訳(メタデータ) (2025-03-02T16:38:16Z) - Where are we in audio deepfake detection? A systematic analysis over generative and detection models [59.09338266364506]
SONARはAI-Audio Detection FrameworkとBenchmarkの合成である。
最先端のAI合成聴覚コンテンツを識別するための総合的な評価を提供する。
従来のモデルベース検出システムと基礎モデルベース検出システムの両方で、AIオーディオ検出を均一にベンチマークする最初のフレームワークである。
論文 参考訳(メタデータ) (2024-10-06T01:03:42Z) - A Survey on Speech Deepfake Detection [7.3348524333159]
音声ディープフェイクは、現実的な音声を生成し、誤情報を広げることで深刻な脅威となる。
これに対抗するために、ディープフェイク検出技術を推進するために多くの課題が編成されている。
我々は2024年3月までに200以上の論文を体系的に分析した。
論文 参考訳(メタデータ) (2024-04-22T06:52:12Z) - A Practical Survey on Emerging Threats from AI-driven Voice Attacks: How Vulnerable are Commercial Voice Control Systems? [13.115517847161428]
AIによる音声攻撃により、音声制御システムに新たなセキュリティ脆弱性が明らかになった。
本研究は,悪意ある音声攻撃に対する商用音声制御システムのレジリエンスを評価するための試みである。
以上の結果から,商用音声制御システムは既存の脅威に対する耐性を高めることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T21:51:13Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - SoK: A Study of the Security on Voice Processing Systems [2.596028864336544]
我々は、音声処理システムに対するユニークな攻撃の配列を特定し、分類する。
現在の最も頻繁に使われている機械学習システムとディープニューラルネットワークは、現代の音声処理システムの中核にある。
論文 参考訳(メタデータ) (2021-12-24T21:47:06Z) - Practical Attacks on Voice Spoofing Countermeasures [3.388509725285237]
悪意あるアクターが、音声認証を最も厳格な形でバイパスするために、音声サンプルを効率的に作ることができることを示す。
本研究の結果は,攻撃者の脅威を回避し,現代の音声認証システムのセキュリティに疑問を投げかけるものである。
論文 参考訳(メタデータ) (2021-07-30T14:07:49Z) - SoK: The Faults in our ASRs: An Overview of Attacks against Automatic
Speech Recognition and Speaker Identification Systems [28.635467696564703]
音声と話者システムのエンドツーエンドアーキテクチャは、画像空間のそれとはかなり異なる攻撃と防御を行うことを示す。
そして、これらのモデルに対する攻撃はほとんど普遍的に転送できないことを実験的に実証した。
論文 参考訳(メタデータ) (2020-07-13T18:52:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。