論文の概要: Deepfake Caricatures: Amplifying attention to artifacts increases
deepfake detection by humans and machines
- arxiv url: http://arxiv.org/abs/2206.00535v1
- Date: Wed, 1 Jun 2022 14:43:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 13:38:23.394993
- Title: Deepfake Caricatures: Amplifying attention to artifacts increases
deepfake detection by humans and machines
- Title(参考訳): Deepfake Caricatures: 人工物への注意の増幅は人や機械によるディープフェイクの検出を増加させる
- Authors: Camilo Fosco, Emilie Josephs, Alex Andonian, Allen Lee, Xi Wang and
Aude Oliva
- Abstract要約: ディープフェイクは、誤報の拡散を促進することによって、私たちのデジタル社会に深刻な脅威をもたらす。
本稿では,これらのニーズを満たす新しいディープフェイク検出フレームワークを提案する。
我々は、人間のアノテーションを半教師するビデオアーティファクトの注意マップを作成することを学ぶ。
- 参考スコア(独自算出の注目度): 17.7858728343141
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deepfakes pose a serious threat to our digital society by fueling the spread
of misinformation. It is essential to develop techniques that both detect them,
and effectively alert the human user to their presence. Here, we introduce a
novel deepfake detection framework that meets both of these needs. Our approach
learns to generate attention maps of video artifacts, semi-supervised on human
annotations. These maps make two contributions. First, they improve the
accuracy and generalizability of a deepfake classifier, demonstrated across
several deepfake detection datasets. Second, they allow us to generate an
intuitive signal for the human user, in the form of "Deepfake Caricatures":
transformations of the original deepfake video where attended artifacts are
exacerbated to improve human recognition. Our approach, based on a mixture of
human and artificial supervision, aims to further the development of
countermeasures against fake visual content, and grants humans the ability to
make their own judgment when presented with dubious visual media.
- Abstract(参考訳): ディープフェイクは、誤報の拡散を促進することによって、私たちのデジタル社会に深刻な脅威をもたらす。
検出すると同時に,ユーザの存在を効果的に警告する技術を開発することが不可欠である。
本稿では,これらのニーズを満たす新しいディープフェイク検出フレームワークを提案する。
提案手法では,人間のアノテーションを半教師するビデオアーティファクトのアテンションマップを生成する。
これらの地図には2つの貢献がある。
まず、複数のディープフェイク検出データセットで実証されたディープフェイク分類器の精度と一般化性を改善する。
第2に,人間ユーザのための直感的な信号を,“ディープフェイクの似顔絵(deepfake caricatures)”という形で生成することが可能だ。
提案手法は,人間と人工的な監督の混合に基づき,偽の視覚コンテンツに対する対策のさらなる発展を目標とし,疑わしい視覚メディアを提示することで,人間に自己判断能力を与える。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - Comparative Analysis of Deep-Fake Algorithms [0.0]
ディープフェイク(Deepfakes)は、ディープラーニングベースのフェイクビデオとしても知られており、近年大きな関心を集めている。
これらのディープフェイクビデオは、誤った情報を広めたり、個人を偽装したり、フェイクニュースを作るといった悪質な目的で使用することができる。
ディープフェイク検出技術は、顔認識、モーション分析、音声と視覚の同期といった様々なアプローチを使用する。
論文 参考訳(メタデータ) (2023-09-06T18:17:47Z) - Using Deep Learning to Detecting Deepfakes [0.0]
ディープフェイク(Deepfakes)とは、ある人物の顔を別のコンピュータが生成した顔に置き換えるビデオまたは画像である。
このオンライン脅威に対抗するために、研究者たちはディープフェイクを検出するモデルを開発した。
本研究では、ディープラーニングアルゴリズムを用いて、この略奪的な脅威に対処する様々なディープフェイク検出モデルについて検討する。
論文 参考訳(メタデータ) (2022-07-27T17:05:16Z) - Detecting Deepfake by Creating Spatio-Temporal Regularity Disruption [94.5031244215761]
本稿では,実際のビデオにない「規則性破壊」を識別することで,ディープフェイク検出の一般化を促進することを提案する。
具体的には、空間的・時間的特性を慎重に調べることで、擬似フェイク発生器による実映像の破壊を提案する。
このような手法により,フェイクビデオを使わずにディープフェイク検出が可能となり,よりシンプルかつ効率的に一般化能力を向上させることができる。
論文 参考訳(メタデータ) (2022-07-21T10:42:34Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - Detecting Deepfake Videos Using Euler Video Magnification [1.8506048493564673]
Deepfakeのビデオは、高度な機械学習技術を使ってビデオを操作している。
本稿では,ディープフェイク映像の識別技術について検討する。
提案手法では,Euler手法から抽出した特徴を用いて,偽造映像と未修正映像を分類する3つのモデルを訓練する。
論文 参考訳(メタデータ) (2021-01-27T17:37:23Z) - WildDeepfake: A Challenging Real-World Dataset for Deepfake Detection [82.42495493102805]
我々は,インターネットから完全に収集された707のディープフェイクビデオから抽出された7,314の顔シーケンスからなる新しいデータセットWildDeepfakeを紹介した。
既存のWildDeepfakeデータセットと我々のWildDeepfakeデータセットのベースライン検出ネットワークを体系的に評価し、WildDeepfakeが実際により困難なデータセットであることを示す。
論文 参考訳(メタデータ) (2021-01-05T11:10:32Z) - Deepfake detection: humans vs. machines [4.485016243130348]
クラウドソーシングのようなシナリオで実施した主観的研究で,ビデオがディープフェイクであるか否かを人間が確認することがいかに困難であるかを体系的に評価する。
各ビデオについて、簡単な質問は「ビデオの中の人物の顔は偽物か?」というものだった。
この評価は、人間の知覚が機械の知覚とは大きく異なるが、成功しても異なる方法ではディープフェイクに騙されることを示した。
論文 参考訳(メタデータ) (2020-09-07T15:20:37Z) - How Do the Hearts of Deep Fakes Beat? Deep Fake Source Detection via
Interpreting Residuals with Biological Signals [9.918684475252636]
本研究では, 真偽を分離するだけでなく, 真偽の背後にある特定の生成モデルを発見するアプローチを提案する。
提案手法は,97.29%の精度で偽動画を検出でき,93.39%の精度でソースモデルを検出できることを示す。
論文 参考訳(メタデータ) (2020-08-26T03:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。