論文の概要: Deepfake CAPTCHA: A Method for Preventing Fake Calls
- arxiv url: http://arxiv.org/abs/2301.03064v1
- Date: Sun, 8 Jan 2023 15:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 16:22:47.405149
- Title: Deepfake CAPTCHA: A Method for Preventing Fake Calls
- Title(参考訳): Deepfake CAPTCHA:フェイクコールの防止方法
- Authors: Lior Yasur, Guy Frankovits, Fred M. Grabovski, Yisroel Mirsky
- Abstract要約: リアルタイムディープフェイク対策としてD-CAPTCHAを提案する。
アプローチは、ディープフェイクモデルに挑戦して、その能力を超えるコンテンツを生成することで、相手をスポットライトに強制することである。
既存のCAPTCHAとは対照的に、コンテンツを分類する能力とは対照的に、コンテンツを作成するAIの能力に挑戦する。
- 参考スコア(独自算出の注目度): 5.810459869589559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning technology has made it possible to generate realistic content
of specific individuals. These `deepfakes' can now be generated in real-time
which enables attackers to impersonate people over audio and video calls.
Moreover, some methods only need a few images or seconds of audio to steal an
identity. Existing defenses perform passive analysis to detect fake content.
However, with the rapid progress of deepfake quality, this may be a losing
game.
In this paper, we propose D-CAPTCHA: an active defense against real-time
deepfakes. The approach is to force the adversary into the spotlight by
challenging the deepfake model to generate content which exceeds its
capabilities. By doing so, passive detection becomes easier since the content
will be distorted. In contrast to existing CAPTCHAs, we challenge the AI's
ability to create content as opposed to its ability to classify content. In
this work we focus on real-time audio deepfakes and present preliminary results
on video.
In our evaluation we found that D-CAPTCHA outperforms state-of-the-art audio
deepfake detectors with an accuracy of 91-100% depending on the challenge
(compared to 71% without challenges). We also performed a study on 41
volunteers to understand how threatening current real-time deepfake attacks
are. We found that the majority of the volunteers could not tell the difference
between real and fake audio.
- Abstract(参考訳): ディープラーニング技術は、特定の個人の現実的なコンテンツを生成することを可能にする。
これらの‘ディープフェイク’はリアルタイムで生成可能になり、攻撃者は音声やビデオ通話で人を偽装できる。
さらに、IDを盗むのに数枚の画像や秒のオーディオしか必要としないメソッドもある。
既存の防御は、偽コンテンツを検出するために受動的解析を行う。
しかし、ディープフェイク品質の急速な進歩により、これは負けたゲームかもしれない。
本稿では,リアルタイムディープフェイク対策としてD-CAPTCHAを提案する。
アプローチは、ディープフェイクモデルに挑戦して、その能力を超えるコンテンツを生成することで、相手をスポットライトに強制することである。
これにより、コンテンツが歪むため受動的検出が容易になる。
既存のCAPTCHAとは対照的に、コンテンツを分類する能力とは対照的に、コンテンツを作成するAIの能力に挑戦する。
本研究では,リアルタイムオーディオディープフェイクに着目し,ビデオの予備結果を示す。
評価の結果,D-CAPTCHAは難易度に応じて91~100%の精度で最先端のオーディオディープフェイク検出器より優れていることがわかった。
また,現在のリアルタイムディープフェイク攻撃の脅威について,41名のボランティアによる調査を行った。
その結果、ボランティアの大多数は、本物と偽のオーディオの違いを把握できなかった。
関連論文リスト
- Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection [58.1263969438364]
本稿では,3次元対向顔視によるディープフェイク検出器に対する最初の試みとして,対向頭部旋回(AdvHeat)を提案する。
実験では、現実的なブラックボックスシナリオにおいて、様々な検出器のAdvHeatに対する脆弱性を検証する。
さらなる分析により、AdvHeatは、クロス検出器転送性と防御に対する堅牢性の両方に対する従来の攻撃よりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-09-03T07:01:34Z) - Detecting Deepfake by Creating Spatio-Temporal Regularity Disruption [94.5031244215761]
本稿では,実際のビデオにない「規則性破壊」を識別することで,ディープフェイク検出の一般化を促進することを提案する。
具体的には、空間的・時間的特性を慎重に調べることで、擬似フェイク発生器による実映像の破壊を提案する。
このような手法により,フェイクビデオを使わずにディープフェイク検出が可能となり,よりシンプルかつ効率的に一般化能力を向上させることができる。
論文 参考訳(メタデータ) (2022-07-21T10:42:34Z) - Deepfake Caricatures: Amplifying attention to artifacts increases
deepfake detection by humans and machines [17.7858728343141]
ディープフェイクは誤報を燃やすことでデジタルウェルビーイングに深刻な脅威をもたらす。
ディープフェイクビデオのアーティファクトを増幅するフレームワークを導入し、人々がより検出できるようにする。
本稿では,ビデオアーティファクトをハイライトするアテンションマップを作成するために,人間の反応をトレーニングする,新しい半教師付きアーティファクトアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2022-06-01T14:43:49Z) - Audio-Visual Person-of-Interest DeepFake Detection [77.04789677645682]
本研究の目的は、現実世界で遭遇する様々な操作方法やシナリオに対処できるディープフェイク検出器を提案することである。
我々は、対照的な学習パラダイムを活用して、各アイデンティティに対して最も識別しやすい、移動面と音声セグメントの埋め込みを学習する。
本手法は,シングルモダリティ(オーディオのみ,ビデオのみ)とマルチモダリティ(オーディオビデオ)の両方を検出でき,低品質・低画質ビデオに対して堅牢である。
論文 参考訳(メタデータ) (2022-04-06T20:51:40Z) - Attacker Attribution of Audio Deepfakes [5.070542698701158]
ディープフェイクは、しばしば悪意のある意図で考案された合成メディアである。
最近の研究は、音声が本物か偽物かを予測するディープフェイク検出に限られている。
これは、帰属(誰が偽物を作ったのか?)がより大きな防衛戦略の重要な構成要素であるという事実にもかかわらずである。
論文 参考訳(メタデータ) (2022-03-28T09:25:31Z) - Partially Fake Audio Detection by Self-attention-based Fake Span
Discovery [89.21979663248007]
本稿では,部分的に偽の音声を検出する自己認識機構を備えた質問応答(フェイクスパン発見)戦略を導入することで,新たな枠組みを提案する。
ADD 2022の部分的に偽の音声検出トラックで第2位にランクインした。
論文 参考訳(メタデータ) (2022-02-14T13:20:55Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - Evaluation of an Audio-Video Multimodal Deepfake Dataset using Unimodal
and Multimodal Detectors [18.862258543488355]
ディープフェイクはセキュリティとプライバシーの問題を引き起こす可能性がある。
ディープラーニング技術を使って人間の声をクローンする新しい領域も登場しつつある。
優れたディープフェイク検出器を開発するには、複数のモードのディープフェイクを検出する検出器が必要である。
論文 参考訳(メタデータ) (2021-09-07T11:00:20Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [73.61769046989258]
近年、ディープフェイク(deepfake deepfake)と呼ばれるフェイススワップ技術が悪用され、人々の関心が高まっている。
ディープフェイクに対する有望な対策はディープフェイク検出です。
deepfake検出器のトレーニングとテストをサポートするために、いくつかのdeepfakeデータセットがリリースされた。
インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介します。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z) - Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to
Adversarial Examples [23.695497512694068]
ビデオ操作技術の最近の進歩は、偽ビデオの生成をこれまで以上にアクセスしやすくしている。
操作されたビデオは偽情報を燃やし、メディアの信頼を減らすことができる。
近年開発されたDeepfake検出方法は、AI生成のフェイクビデオと実際のビデオとを区別するために、ディープニューラルネットワーク(DNN)に依存している。
論文 参考訳(メタデータ) (2020-02-09T07:10:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。