論文の概要: Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis
- arxiv url: http://arxiv.org/abs/2105.14376v1
- Date: Sat, 29 May 2021 21:22:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:14:54.779593
- Title: Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis
- Title(参考訳): スペクトルを超えて:再合成によるディープフェイクの検出
- Authors: Yang He and Ning Yu and Margret Keuper and Mario Fritz
- Abstract要約: ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
- 参考スコア(独自算出の注目度): 69.09526348527203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advances in deep generative models over the past years have led to
highly {realistic media, known as deepfakes,} that are commonly
indistinguishable from real to human eyes. These advances make assessing the
authenticity of visual data increasingly difficult and pose a misinformation
threat to the trustworthiness of visual content in general. Although recent
work has shown strong detection accuracy of such deepfakes, the success largely
relies on identifying frequency artifacts in the generated images, which will
not yield a sustainable detection approach as generative models continue
evolving and closing the gap to real images. In order to overcome this issue,
we propose a novel fake detection that is designed to re-synthesize testing
images and extract visual cues for detection. The re-synthesis procedure is
flexible, allowing us to incorporate a series of visual tasks - we adopt
super-resolution, denoising and colorization as the re-synthesis. We
demonstrate the improved effectiveness, cross-GAN generalization, and
robustness against perturbations of our approach in a variety of detection
scenarios involving multiple generators over CelebA-HQ, FFHQ, and LSUN
datasets. Source code is available at
https://github.com/SSAW14/BeyondtheSpectrum.
- Abstract(参考訳): 過去数年間の深層生成モデルの急速な進歩は、リアルと人間の目では区別がつかない高度に非現実的メディア(deepfakes)へとつながった。
これらの進歩により、視覚データの真正性の評価はますます難しくなり、視覚コンテンツ全般の信頼性に対する誤報の脅威となる。
近年の研究では、このようなディープフェイクの検出精度が強いことが示されているが、その成功は主に生成された画像の周波数アーチファクトの特定に依存しているため、生成モデルの進化と実際の画像へのギャップの閉鎖が続くため、持続可能な検出アプローチは得られない。
そこで本研究では,テスト画像の再合成と検出のための視覚的手がかり抽出を目的とした,新しい偽検出手法を提案する。
再合成の手順は柔軟で、一連の視覚的タスクを組み込むことができます。
我々は,CelebA-HQ,FFHQ,LSUNデータセット上の複数のジェネレータを含む様々な検出シナリオにおいて,我々のアプローチの摂動に対する改善効果,GANの一般化,堅牢性を示す。
ソースコードはhttps://github.com/SSAW14/BeyondtheSpectrumで入手できる。
関連論文リスト
- Deepfake Sentry: Harnessing Ensemble Intelligence for Resilient Detection and Generalisation [0.8796261172196743]
本稿では,持続的かつ積極的なディープフェイクトレーニング強化ソリューションを提案する。
我々は、ディープフェイクジェネレータモデルによって導入されたアーティファクトの効果を模倣するオートエンコーダのプールを採用する。
実験の結果,提案するアンサンブル・オートエンコーダに基づくデータ拡張学習手法が一般化の点で改善されていることがわかった。
論文 参考訳(メタデータ) (2024-03-29T19:09:08Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Rethinking the Up-Sampling Operations in CNN-based Generative Network
for Generalizable Deepfake Detection [86.97062579515833]
我々は、アップサンプリング操作から生じる一般化された構造的アーティファクトをキャプチャし、特徴付ける手段として、NPR(Neighboring Pixel Relationships)の概念を紹介した。
tft28の異なる生成モデルによって生成されたサンプルを含む、オープンワールドデータセット上で包括的な分析を行う。
この分析は、新しい最先端のパフォーマンスを確立し、既存の手法よりも優れたtft11.6%の向上を示している。
論文 参考訳(メタデータ) (2023-12-16T14:27:06Z) - AntifakePrompt: Prompt-Tuned Vision-Language Models are Fake Image Detectors [24.78672820633581]
深層生成モデルは、偽情報や著作権侵害に対する懸念を高めながら、驚くほど偽のイメージを作成することができる。
実画像と偽画像とを区別するためにディープフェイク検出技術が開発された。
本稿では,視覚言語モデルとアクシデントチューニング技術を用いて,Antifake Promptと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-26T14:23:45Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。