論文の概要: Generalizable Audio Spoofing Detection using Non-Semantic Representations
- arxiv url: http://arxiv.org/abs/2509.00186v1
- Date: Fri, 29 Aug 2025 18:37:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.11824
- Title: Generalizable Audio Spoofing Detection using Non-Semantic Representations
- Title(参考訳): 非意味表現を用いた一般化可能な音声スポーフィング検出
- Authors: Arnab Das, Yassine El Kheir, Carlos Franzreb, Tim Herzig, Tim Polzehl, Sebastian Möller,
- Abstract要約: 生成モデリングにより、合成音声生成が容易になり、音声ベースのサービスが偽造攻撃に対して脆弱になった。
既存のディープフェイク検出ソリューションは、一般化性に欠けるとしてしばしば批判され、実世界のデータに適用した場合に大きく失敗する。
本研究では,非意味的普遍的音声表現を利用した一般化可能なスプーフィング検出手法を提案する。
- 参考スコア(独自算出の注目度): 12.685819931453045
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Rapid advancements in generative modeling have made synthetic audio generation easy, making speech-based services vulnerable to spoofing attacks. Consequently, there is a dire need for robust countermeasures more than ever. Existing solutions for deepfake detection are often criticized for lacking generalizability and fail drastically when applied to real-world data. This study proposes a novel method for generalizable spoofing detection leveraging non-semantic universal audio representations. Extensive experiments have been performed to find suitable non-semantic features using TRILL and TRILLsson models. The results indicate that the proposed method achieves comparable performance on the in-domain test set while significantly outperforming state-of-the-art approaches on out-of-domain test sets. Notably, it demonstrates superior generalization on public-domain data, surpassing methods based on hand-crafted features, semantic embeddings, and end-to-end architectures.
- Abstract(参考訳): 生成モデリングの急速な進歩により、合成音声生成が容易になり、音声ベースのサービスが偽造攻撃に対して脆弱になった。
そのため、これまで以上に堅牢な対策が必要である。
既存のディープフェイク検出ソリューションは、一般化性に欠けるとしてしばしば批判され、実世界のデータに適用した場合に大きく失敗する。
本研究では,非意味的普遍的音声表現を利用した一般化可能なスプーフィング検出手法を提案する。
TRILL と TRILLsson モデルを用いて, 適切な非意味的特徴の探索実験を行った。
その結果,提案手法はドメイン内テストセットに対して同等の性能を達成し,ドメイン外テストセットに対する最先端のアプローチよりも優れていた。
特に、手作りの機能、セマンティック埋め込み、エンドツーエンドアーキテクチャに基づくメソッドを超越した、パブリックドメインデータに対する優れた一般化を示す。
関連論文リスト
- FADEL: Uncertainty-aware Fake Audio Detection with Evidential Deep Learning [9.960675988638805]
顕在学習を用いた偽音声検出(FADEL)という新しいフレームワークを提案する。
FADELはモデルの不確実性を予測に組み込んでおり、OODシナリオではより堅牢なパフォーマンスを実現している。
本研究では,異なるスプーフィングアルゴリズム間の平均不確かさと等誤差率(EER)の強い相関関係を解析し,不確かさ推定の有効性を示す。
論文 参考訳(メタデータ) (2025-04-22T07:40:35Z) - Anomaly Detection and Localization for Speech Deepfakes via Feature Pyramid Matching [8.466707742593078]
音声ディープフェイク(英: Speech Deepfakes)は、ターゲット話者の声を模倣できる合成音声信号である。
音声のディープフェイクを検出する既存の方法は教師あり学習に依存している。
本稿では,音声深度検出を異常検出タスクとして再設定する,新しい解釈可能な一クラス検出フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-23T11:15:22Z) - Training-Free Deepfake Voice Recognition by Leveraging Large-Scale Pre-Trained Models [52.04189118767758]
一般化は、現在のオーディオディープフェイク検出器の主な問題である。
本稿では,オーディオディープフェイク検出のための大規模事前学習モデルの可能性について検討する。
論文 参考訳(メタデータ) (2024-05-03T15:27:11Z) - Scalable Ensemble-based Detection Method against Adversarial Attacks for
speaker verification [73.30974350776636]
本稿では,一貫した枠組みにおける主流浄化手法を包括的に比較する。
本稿では, 検出のための高度浄化モジュールを組み込んだ, 簡単に追従できるアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T03:04:05Z) - Characterizing the temporal dynamics of universal speech representations
for generalizable deepfake detection [14.449940985934388]
既存のディープフェイク音声検出システムは、目に見えない攻撃に対する一般化性に欠ける。
近年,この問題に対処するための普遍的な音声表現の活用が検討されている。
これらの表現の長期的時間的ダイナミクスを特徴付けることは、一般化可能性に不可欠である。
論文 参考訳(メタデータ) (2023-09-15T01:37:45Z) - Deepfake audio detection by speaker verification [79.99653758293277]
本研究では,話者の生体特性のみを活用する新しい検出手法を提案する。
提案手法は,既成話者検証ツールに基づいて実装することができる。
そこで我々は,3つの一般的なテストセット上で,優れた性能,高い一般化能力,高ロバスト性を有する音声障害に対する高ロバスト性を検証した。
論文 参考訳(メタデータ) (2022-09-28T13:46:29Z) - Better Fine-Tuning by Reducing Representational Collapse [77.44854918334232]
既存の訓練済み言語モデルに対するアプローチは不安定であることが示されている。
本稿では,従来使用されていた対数目的をパラメトリックノイズに置き換える信頼領域理論に根ざした手法を提案する。
事前学習されたモデルは、微調整されるたびにより一般化可能な表現を維持している。
論文 参考訳(メタデータ) (2020-08-06T02:13:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。