論文の概要: AI-assisted Tagging of Deepfake Audio Calls using Challenge-Response
- arxiv url: http://arxiv.org/abs/2402.18085v1
- Date: Wed, 28 Feb 2024 06:17:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 06:59:15.584554
- Title: AI-assisted Tagging of Deepfake Audio Calls using Challenge-Response
- Title(参考訳): チャレンジ応答を用いたディープフェイク音声のAIによるタグ付け
- Authors: Govind Mittal, Arthur Jakobsson, Kelly O. Marshall, Chinmay Hegde, Nasir Memon,
- Abstract要約: Scammersは、AI音声閉鎖技術を社会工学の攻撃に積極的に活用している。
リアルタイムディープフェイク(RTDF)は、電話でターゲットの声をリアルタイムでクローンすることができる。
本稿では,ディープフェイク音声通話を検出するための頑健なチャレンジ応答方式を提案する。
- 参考スコア(独自算出の注目度): 14.604998731837595
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Scammers are aggressively leveraging AI voice-cloning technology for social engineering attacks, a situation significantly worsened by the advent of audio Real-time Deepfakes (RTDFs). RTDFs can clone a target's voice in real-time over phone calls, making these interactions highly interactive and thus far more convincing. Our research confidently addresses the gap in the existing literature on deepfake detection, which has largely been ineffective against RTDF threats. We introduce a robust challenge-response-based method to detect deepfake audio calls, pioneering a comprehensive taxonomy of audio challenges. Our evaluation pitches 20 prospective challenges against a leading voice-cloning system. We have compiled a novel open-source challenge dataset with contributions from 100 smartphone and desktop users, yielding 18,600 original and 1.6 million deepfake samples. Through rigorous machine and human evaluations of this dataset, we achieved a deepfake detection rate of 86% and an 80% AUC score, respectively. Notably, utilizing a set of 11 challenges significantly enhances detection capabilities. Our findings reveal that combining human intuition with machine precision offers complementary advantages. Consequently, we have developed an innovative human-AI collaborative system that melds human discernment with algorithmic accuracy, boosting final joint accuracy to 82.9%. This system highlights the significant advantage of AI-assisted pre-screening in call verification processes. Samples can be heard at https://mittalgovind.github.io/autch-samples/
- Abstract(参考訳): Scammersは、音声リアルタイムディープフェイク(RTDF)の出現により、AI音声の閉鎖技術を社会工学的攻撃に積極的に活用している。
RTDFは電話でターゲットの声をリアルタイムでクローンできるので、対話性が高く、はるかに説得力がある。
本研究は,RTDFの脅威に対してほとんど有効ではないディープフェイク検出に関する既存の文献のギャップを確実に解決するものである。
我々は、ディープフェイク音声通話を検出するための頑健なチャレンジ応答方式を導入し、オーディオ課題の包括的分類を開拓した。
本評価では,先行する音声閉鎖システムに対して,今後20の課題を提起する。
私たちは、100人のスマートフォンとデスクトップユーザのコントリビューションによって、新しいオープンソースのチャレンジデータセットをコンパイルしました。
このデータセットの厳密なマシンと人間による評価により,深度検出率86%,AUCスコア80%を達成できた。
特に、11の課題のセットを利用すると、検出能力が大幅に向上する。
人間の直感と機械の精度の組み合わせは相補的な優位性をもたらすことが明らかとなった。
そこで我々は,人間の認識をアルゴリズムの精度で融合させ,最終的な関節の精度を82.9%に向上させる,革新的な人間-AI協調システムを開発した。
このシステムは、呼び出し検証プロセスにおけるAIによる事前スクリーニングの大きな利点を強調している。
サンプルはhttps://mittalgovind.github.io/autch-samples/で確認できる。
関連論文リスト
- Training-Free Deepfake Voice Recognition by Leveraging Large-Scale Pre-Trained Models [52.04189118767758]
一般化は、現在のオーディオディープフェイク検出器の主な問題である。
本稿では,オーディオディープフェイク検出のための大規模事前学習モデルの可能性について検討する。
論文 参考訳(メタデータ) (2024-05-03T15:27:11Z) - Retrieval-Augmented Audio Deepfake Detection [27.13059118273849]
そこで本研究では,類似のサンプルを用いて検体を増強する検索拡張検出フレームワークを提案する。
提案したRADフレームワークのベースライン法よりも優れた性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-04-22T05:46:40Z) - What to Remember: Self-Adaptive Continual Learning for Audio Deepfake
Detection [53.063161380423715]
既存の検出モデルは、既知のディープフェイク音声を識別することに成功したが、新しい攻撃タイプに遭遇する際には苦労している。
本稿では,Radian Weight Modification (RWM) と呼ばれる連続的な学習手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T09:52:17Z) - GOTCHA: Real-Time Video Deepfake Detection via Challenge-Response [17.117162678626418]
オンラインビデオのインタラクションの統合性は、ますます懸念されている。
AI対応のリアルタイムディープフェイク(RTDF)の台頭により、オンラインビデオインタラクションの整合性が懸念されている。
本稿では,ライブ環境での信頼性を確立するための課題応答手法を提案する。
論文 参考訳(メタデータ) (2022-10-12T13:15:54Z) - Deepfake audio detection by speaker verification [79.99653758293277]
本研究では,話者の生体特性のみを活用する新しい検出手法を提案する。
提案手法は,既成話者検証ツールに基づいて実装することができる。
そこで我々は,3つの一般的なテストセット上で,優れた性能,高い一般化能力,高ロバスト性を有する音声障害に対する高ロバスト性を検証した。
論文 参考訳(メタデータ) (2022-09-28T13:46:29Z) - Fully Automated End-to-End Fake Audio Detection [57.78459588263812]
本稿では,完全自動エンドツーエンド音声検出手法を提案する。
まず、wav2vec事前学習モデルを用いて、音声の高レベル表現を得る。
ネットワーク構造には, Light-DARTS という異種アーキテクチャサーチ (DARTS) の修正版を用いる。
論文 参考訳(メタデータ) (2022-08-20T06:46:55Z) - Blackbox Untargeted Adversarial Testing of Automatic Speech Recognition
Systems [1.599072005190786]
音声認識システムは、家電の音声ナビゲーションや音声制御への応用に広く利用されている。
ディープニューラルネットワーク(DNN)は、敵の摂動に感受性があることが示されている。
本稿では,ASRSの正しさをテストするため,ブラックボックスの自動生成手法を提案する。
論文 参考訳(メタデータ) (2021-12-03T10:21:47Z) - Human Perception of Audio Deepfakes [0.0]
音声のディープフェイク検出における人間と機械の能力を比較した。
このマシンは、オーディオディープフェイクの検出において、人間よりも一般的に優れていることがわかった。
若年者の方が高齢者よりもオーディオディープフェイクの検出が優れているのに対して,IT専門家はレイメンに対して優位性はない。
論文 参考訳(メタデータ) (2021-07-20T09:19:42Z) - Spotting adversarial samples for speaker verification by neural vocoders [102.1486475058963]
我々は、自動話者検証(ASV)のための敵対サンプルを見つけるために、ニューラルボコーダを採用する。
元の音声と再合成音声のASVスコアの違いは、真正と逆正のサンプルの識別に良い指標であることがわかった。
私たちのコードは、将来的な比較作業のためにオープンソースにされます。
論文 参考訳(メタデータ) (2021-07-01T08:58:16Z) - Detecting COVID-19 from Breathing and Coughing Sounds using Deep Neural
Networks [68.8204255655161]
私たちは、Convolutional Neural Networksのアンサンブルを適応させて、スピーカーがCOVID-19に感染しているかどうかを分類します。
最終的には、74.9%のUnweighted Average Recall(UAR)、またはニューラルネットワークをアンサンブルすることで、ROC曲線(AUC)の80.7%を達成する。
論文 参考訳(メタデータ) (2020-12-29T01:14:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。