論文の概要: Can DeepFake Speech be Reliably Detected?
- arxiv url: http://arxiv.org/abs/2410.06572v1
- Date: Wed, 9 Oct 2024 06:13:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 04:49:21.930242
- Title: Can DeepFake Speech be Reliably Detected?
- Title(参考訳): ディープフェイク音声は確実に検出できるのか?
- Authors: Hongbin Liu, Youzheng Chen, Arun Narayanan, Athula Balachandran, Pedro J. Moreno, Lun Wang,
- Abstract要約: この研究は、最先端のオープンソース音声検出装置に対する能動的悪意のある攻撃に関する最初の体系的研究である。
その結果、敵の脅威が進行する中で、より堅牢な検出方法が緊急に必要であることが明らかとなった。
- 参考スコア(独自算出の注目度): 17.10792531439146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in text-to-speech (TTS) systems, particularly those with voice cloning capabilities, have made voice impersonation readily accessible, raising ethical and legal concerns due to potential misuse for malicious activities like misinformation campaigns and fraud. While synthetic speech detectors (SSDs) exist to combat this, they are vulnerable to ``test domain shift", exhibiting decreased performance when audio is altered through transcoding, playback, or background noise. This vulnerability is further exacerbated by deliberate manipulation of synthetic speech aimed at deceiving detectors. This work presents the first systematic study of such active malicious attacks against state-of-the-art open-source SSDs. White-box attacks, black-box attacks, and their transferability are studied from both attack effectiveness and stealthiness, using both hardcoded metrics and human ratings. The results highlight the urgent need for more robust detection methods in the face of evolving adversarial threats.
- Abstract(参考訳): 近年のTTS(text-to-speech)システムの進歩、特に音声のクローン機能を持つものは、音声の偽造が容易にアクセスでき、誤報キャンペーンや詐欺などの悪意ある行為を誤用する可能性があるとして、倫理的および法的懸念を提起している。
合成音声検出器(SSD)は、これに対抗するために存在するが、"テストドメインシフト"に弱いため、変換、再生、バックグラウンドノイズによってオーディオを変更すると、パフォーマンスが低下する。
この脆弱性は、検出器の消極を目的とした合成音声の故意な操作によってさらに悪化する。
この研究は、最先端のオープンソースSSDに対するこのようなアクティブな悪意のある攻撃に関する最初の体系的な研究である。
ホワイトボックス攻撃、ブラックボックス攻撃、およびそれらの転送性は、ハードコードされたメトリクスと人間の評価の両方を用いて、攻撃の有効性とステルスネスの両方から研究される。
その結果、敵の脅威が進行する中で、より堅牢な検出方法が緊急に必要であることが明らかとなった。
関連論文リスト
- D-CAPTCHA++: A Study of Resilience of Deepfake CAPTCHA under Transferable Imperceptible Adversarial Attack [1.7811840395202345]
近年の研究では、実際の通話と偽の通話を区別するチャレンジ応答プロトコルに基づくD-CAPTCHAシステムを提案する。
本研究では,このシステムのレジリエンスについて検討し,より堅牢なD-CAPTCHA++を導入し,フェイクコールに対する防御を行う。
論文 参考訳(メタデータ) (2024-09-11T16:25:02Z) - Imperceptible Rhythm Backdoor Attacks: Exploring Rhythm Transformation for Embedding Undetectable Vulnerabilities on Speech Recognition [4.164975438207411]
近年,音声認識システムにおいて,典型的なバックドア攻撃が研究されている。
攻撃者は、良質な音声スペクトログラムにいくつかの組み込まれた変更を加えたり、ピッチや音色などの音声成分を変更したりする。
データ中毒のステルス性を改善するために,ランダム・スペクトログラム・リズム・トランスフォーメーション (Random Spectrogram Rhythm Transformation) と呼ばれる非ニューラルかつ高速なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:21Z) - The Art of Deception: Robust Backdoor Attack using Dynamic Stacking of Triggers [0.0]
近年の研究では、聴覚バックドアが特定の変更を開始メカニズムとして用いる可能性があることが判明している。
DynamicTriggerは動的バックドアアタックを実行するための方法論として紹介されている。
動的音源トリガーによる変動信号のサンプリング率と話者の身元をマスキングすることにより、音声認識システムを欺くことができる。
論文 参考訳(メタデータ) (2024-01-03T04:31:59Z) - Defense Against Adversarial Attacks on Audio DeepFake Detection [0.4511923587827302]
Audio DeepFakes (DF) は、ディープラーニングを用いて人工的に生成された発話である。
脅威を防ぐために、生成された音声を検出する複数のニューラルネットワークベースの手法が提案されている。
論文 参考訳(メタデータ) (2022-12-30T08:41:06Z) - Deepfake audio detection by speaker verification [79.99653758293277]
本研究では,話者の生体特性のみを活用する新しい検出手法を提案する。
提案手法は,既成話者検証ツールに基づいて実装することができる。
そこで我々は,3つの一般的なテストセット上で,優れた性能,高い一般化能力,高ロバスト性を有する音声障害に対する高ロバスト性を検証した。
論文 参考訳(メタデータ) (2022-09-28T13:46:29Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Partially Fake Audio Detection by Self-attention-based Fake Span
Discovery [89.21979663248007]
本稿では,部分的に偽の音声を検出する自己認識機構を備えた質問応答(フェイクスパン発見)戦略を導入することで,新たな枠組みを提案する。
ADD 2022の部分的に偽の音声検出トラックで第2位にランクインした。
論文 参考訳(メタデータ) (2022-02-14T13:20:55Z) - Practical Attacks on Voice Spoofing Countermeasures [3.388509725285237]
悪意あるアクターが、音声認証を最も厳格な形でバイパスするために、音声サンプルを効率的に作ることができることを示す。
本研究の結果は,攻撃者の脅威を回避し,現代の音声認証システムのセキュリティに疑問を投げかけるものである。
論文 参考訳(メタデータ) (2021-07-30T14:07:49Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Silent Speech Interfaces for Speech Restoration: A Review [59.68902463890532]
サイレント音声インタフェース (SSI) の研究は、重度音声障害の患者に対して、代替的で拡張的なコミュニケーション方法を提供することを目的としている。
SSIは、コミュニケーションを可能にするために、音声生成中に人体によって生成される非音響バイオシグナーに依存している。
現在、ほとんどのSSIは、健康なユーザーのために実験室でのみ検証されている。
論文 参考訳(メタデータ) (2020-09-04T11:05:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。