論文の概要: DeePen: Penetration Testing for Audio Deepfake Detection
- arxiv url: http://arxiv.org/abs/2502.20427v2
- Date: Wed, 05 Mar 2025 14:58:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 12:09:31.743912
- Title: DeePen: Penetration Testing for Audio Deepfake Detection
- Title(参考訳): DeePen: オーディオディープフェイク検出のための浸透試験
- Authors: Nicolas Müller, Piotr Kawa, Adriana Stan, Thien-Phuc Doan, Souhwan Jung, Wei Herng Choong, Philip Sperl, Konstantin Böttinger,
- Abstract要約: ディープフェイクは個人、組織、社会全体に重大なセキュリティリスクをもたらす。
私たちは、DeePenと呼ばれる体系的なテスト手法を導入します。
我々の手法は、対象のディープフェイク検出モデルへの事前の知識やアクセスなしに動作します。
- 参考スコア(独自算出の注目度): 6.976070957821282
- License:
- Abstract: Deepfakes - manipulated or forged audio and video media - pose significant security risks to individuals, organizations, and society at large. To address these challenges, machine learning-based classifiers are commonly employed to detect deepfake content. In this paper, we assess the robustness of such classifiers through a systematic penetration testing methodology, which we introduce as DeePen. Our approach operates without prior knowledge of or access to the target deepfake detection models. Instead, it leverages a set of carefully selected signal processing modifications - referred to as attacks - to evaluate model vulnerabilities. Using DeePen, we analyze both real-world production systems and publicly available academic model checkpoints, demonstrating that all tested systems exhibit weaknesses and can be reliably deceived by simple manipulations such as time-stretching or echo addition. Furthermore, our findings reveal that while some attacks can be mitigated by retraining detection systems with knowledge of the specific attack, others remain persistently effective. We release all associated code.
- Abstract(参考訳): ディープフェイク(Deepfakes)は、音声やビデオのメディアを操作または偽造したもので、個人、組織、社会全体に重大なセキュリティリスクをもたらす。
これらの課題に対処するため、ディープラーニングベースの分類器は、ディープフェイクコンテンツを検出するために一般的に使用される。
本稿では,DeePenとして導入した系統的な浸透試験手法を用いて,そのような分類器の堅牢性を評価する。
我々の手法は、対象のディープフェイク検出モデルへの事前の知識やアクセスなしに動作します。
代わりに、モデル脆弱性を評価するために、慎重に選択された信号処理修正セット(アタックと呼ばれる)を利用する。
DeePenを用いて、実世界のプロダクションシステムと公開可能な学術モデルチェックポイントの両方を分析し、テスト対象のシステムすべてが弱点を示し、タイムストレッチやエコー付加といった単純な操作によって確実に認識できることを示した。
さらに,特定の攻撃を知れば,検出システムを再訓練することで攻撃を緩和できるが,他の攻撃は持続的に有効であることが明らかとなった。
すべての関連コードをリリースします。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - XAI-Based Detection of Adversarial Attacks on Deepfake Detectors [0.0]
我々は,XAIを用いたディープフェイク検出器に対する敵攻撃を識別するための新しい手法を提案する。
本手法は, ディープフェイクの検出だけでなく, 敵攻撃の可能性に対する理解の向上にも寄与する。
論文 参考訳(メタデータ) (2024-03-05T13:25:30Z) - Can AI-Generated Text be Reliably Detected? [50.95804851595018]
大規模言語モデル(LLM)は、様々なアプリケーションで非常によく機能します。
盗作、偽ニュースの発生、スパムなどの活動においてこれらのモデルが誤用される可能性があることは、彼らの責任ある使用に対する懸念を引き起こしている。
我々は、攻撃者の存在下で、これらのAIテキスト検出装置の堅牢性を強調テストする。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - A False Sense of Security? Revisiting the State of Machine
Learning-Based Industrial Intrusion Detection [9.924435476552702]
異常に基づく侵入検知は、産業制御システムに対する新規または未知の攻撃を検出することを約束する。
研究は機械学習による自動学習に重点を置いており、検出率は99%以上に達する。
その結果、未知の攻撃を検出できないことが強調され、検出率は3.2%から14.7%に低下した。
論文 参考訳(メタデータ) (2022-05-18T20:17:33Z) - Early Detection of Network Attacks Using Deep Learning [0.0]
ネットワーク侵入検知システム(英: Network Intrusion Detection System、IDS)は、ネットワークトラフィックを観察することによって、不正かつ悪意のない行動を特定するためのツールである。
本稿では,攻撃対象のシステムにダメージを与える前に,ネットワーク攻撃を防止するために,エンド・ツー・エンドの早期侵入検知システムを提案する。
論文 参考訳(メタデータ) (2022-01-27T16:35:37Z) - Detect & Reject for Transferability of Black-box Adversarial Attacks
Against Network Intrusion Detection Systems [0.0]
本稿では,機械学習による侵入検知システムに対する敵ネットワークトラフィックの転送可能性について検討する。
本研究では,機械学習による侵入検知システムに対する対向的ネットワークトラフィックの転送可能性特性の影響を抑えるための防御機構として検出・削除を検討した。
論文 参考訳(メタデータ) (2021-12-22T17:54:54Z) - No Need to Know Physics: Resilience of Process-based Model-free Anomaly
Detection for Industrial Control Systems [95.54151664013011]
本稿では,システムの物理的特性に反する逆スプーフ信号を生成するための新しい枠組みを提案する。
トップセキュリティカンファレンスで公表された4つの異常検知器を分析した。
論文 参考訳(メタデータ) (2020-12-07T11:02:44Z) - Adversarial Attacks on Deep Learning Systems for User Identification
based on Motion Sensors [24.182791316595576]
本研究では,モーションセンサ信号に基づく明示的認証のための深層学習手法に焦点を当てた。
このシナリオでは、攻撃者は不正アクセスを得るために敵の例を作ることができる。
私たちの知る限りでは、機械学習モデルに対する敵攻撃の影響の定量化を目的とした最初の研究である。
論文 参考訳(メタデータ) (2020-09-02T14:35:05Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。