論文の概要: D$^3$: Scaling Up Deepfake Detection by Learning from Discrepancy
- arxiv url: http://arxiv.org/abs/2404.04584v2
- Date: Sun, 23 Mar 2025 15:36:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 16:32:16.040717
- Title: D$^3$: Scaling Up Deepfake Detection by Learning from Discrepancy
- Title(参考訳): D$^3$:離散性から学習したディープフェイク検出のスケールアップ
- Authors: Yongqi Yang, Zhihao Qian, Ye Zhu, Olga Russakovsky, Yu Wu,
- Abstract要約: 既存の文献は、目に見えない発電機上でのディープフェイク検出の一般化能力を強調している。
この研究は、より一般化と堅牢性のある普遍的なディープフェイク検出システムに向けた一歩である。
- 参考スコア(独自算出の注目度): 29.919663502808575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The boom of Generative AI brings opportunities entangled with risks and concerns. Existing literature emphasizes the generalization capability of deepfake detection on unseen generators, significantly promoting the detector's ability to identify more universal artifacts. This work seeks a step toward a universal deepfake detection system with better generalization and robustness. We do so by first scaling up the existing detection task setup from the one-generator to multiple-generators in training, during which we disclose two challenges presented in prior methodological designs and demonstrate the divergence of detectors' performance. Specifically, we reveal that the current methods tailored for training on one specific generator either struggle to learn comprehensive artifacts from multiple generators or sacrifice their fitting ability for seen generators (i.e., In-Domain (ID) performance) to exchange the generalization for unseen generators (i.e., Out-Of-Domain (OOD) performance). To tackle the above challenges, we propose our Discrepancy Deepfake Detector (D$^3$) framework, whose core idea is to deconstruct the universal artifacts from multiple generators by introducing a parallel network branch that takes a distorted image feature as an extra discrepancy signal and supplement its original counterpart. Extensive scaled-up experiments demonstrate the effectiveness of D$^3$, achieving 5.3% accuracy improvement in the OOD testing compared to the current SOTA methods while maintaining the ID performance. The source code will be updated in our GitHub repository: https://github.com/BigAandSmallq/D3
- Abstract(参考訳): ジェネレーティブAIのブームは、リスクと懸念に絡み合った機会をもたらす。
現存する文献は、目に見えない発電機のディープフェイク検出の一般化能力を強調し、検出器がより普遍的なアーティファクトを識別する能力を著しく促進している。
この研究は、より一般化と堅牢性のある普遍的なディープフェイク検出システムに向けた一歩である。
まず,既存の検出タスクのセットアップを1ジェネレータから複数ジェネレータにスケールアップし,従来の方法論設計で提示された2つの課題を明らかにし,検出器の性能のばらつきを実証する。
具体的には、複数の発電機から包括的アーティファクトを学習するのに苦労しているか、あるいは見えないジェネレータ(例えば、In-Domain(ID)パフォーマンス)の適合性を犠牲にして、未知のジェネレータ(例えば、Out-Of-Domain(OOD)パフォーマンス)の一般化を交換する現在の方法を明らかにする。
このような課題に対処するため,我々はD$^3$のDrecrepancy Deepfake Detector(D$^3$)フレームワークを提案し,その中核となる考え方は,歪み画像の特徴を余分な離散信号として取り込んだ並列ネットワークブランチを導入して,複数のジェネレータから普遍的なアーティファクトを分解することである。
大規模なスケールアップ実験では,ID性能を維持しながら,OOD試験の精度を5.3%向上するD$^3$の有効性が示された。
ソースコードはGitHubリポジトリで更新されます。
関連論文リスト
- Deepfake Media Generation and Detection in the Generative AI Era: A Survey and Outlook [101.30779332427217]
本研究は,近年の現場開発を含むディープフェイク発生・検出技術について調査する。
偽コンテンツの変更や生成に使用する手順に従って,様々な種類のディープフェイクを識別する。
我々は,分布外コンテンツに基づくディープフェイク検出のための新しいマルチモーダル・ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-11-29T08:29:25Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - CycleHOI: Improving Human-Object Interaction Detection with Cycle Consistency of Detection and Generation [37.45945633515955]
本稿では,人間と物体の相互作用(HOI)の検出性能を高めるために,CycleHOIという新しい学習フレームワークを提案する。
我々の鍵となる設計は、HOI検出器のトレーニングのための新しいサイクル整合性損失を導入することである。
我々は,CycleHOIの有効性と一般化力を検証するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-07-16T06:55:43Z) - Data-Independent Operator: A Training-Free Artifact Representation
Extractor for Generalizable Deepfake Detection [105.9932053078449]
本研究では,より一般的な人工物表現を捉えるのに,小型かつトレーニング不要なフィルタが十分であることを示す。
トレーニングソースとテストソースの両方に不偏があるため、未確認ソースに対して魅力的な改善を実現するために、Data-Independent Operator (DIO)と定義する。
我々の検出器は13.3%の大幅な改善を実現し、新しい最先端の性能を確立した。
論文 参考訳(メタデータ) (2024-03-11T15:22:28Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Generalized Deepfakes Detection with Reconstructed-Blended Images and
Multi-scale Feature Reconstruction Network [14.749857283918157]
未確認データセットに対する堅牢な適用性を有するブレンドベース検出手法を提案する。
実験により、この手法により、未知のデータ上でのクロスマニピュレーション検出とクロスデータセット検出の両方のパフォーマンスが向上することが示された。
論文 参考訳(メタデータ) (2023-12-13T09:49:15Z) - Transcending Forgery Specificity with Latent Space Augmentation for Generalizable Deepfake Detection [57.646582245834324]
LSDAと呼ばれる簡易で効果的なディープフェイク検出器を提案する。
より多様な偽の表現は、より一般化可能な決定境界を学べるべきである。
提案手法は驚くほど有効であり, 広く使用されている複数のベンチマークで最先端の検出器を超越することを示す。
論文 参考訳(メタデータ) (2023-11-19T09:41:10Z) - A Dual Attentive Generative Adversarial Network for Remote Sensing Image
Change Detection [6.906936669510404]
本稿では,高分解能なリモートセンシング画像変化検出タスクを実現するために,二重注意生成対向ネットワークを提案する。
DAGANフレームワークは、85.01%がIoU、91.48%がF1スコアであり、LEVIRデータセットの先進的な手法よりもパフォーマンスが良い。
論文 参考訳(メタデータ) (2023-10-03T08:26:27Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - GenImage: A Million-Scale Benchmark for Detecting AI-Generated Image [28.38575401686718]
我々は、100万組のAI生成フェイクイメージと実際の画像の収集を含むGenImageデータセットを紹介した。
この利点は、GenImageで訓練された検出器が徹底的な評価を行い、多様な画像に適用可能であることを示すことである。
本研究では,本データセットの包括的解析を行い,実世界のシナリオに類似した検出手法を評価するための2つの課題を提案する。
論文 参考訳(メタデータ) (2023-06-14T15:21:09Z) - Unsupervised Anomaly Detection and Localization of Machine Audio: A
GAN-based Approach [17.85309428707623]
AEGAN-ADは、入力スペクトログラムを再構成するためにジェネレータを訓練する全く教師なしのアプローチである。
DCASE 2022 Challenge TASK 2のデータセット上でのAEGAN-ADの性能は、最先端の結果を示している。
論文 参考訳(メタデータ) (2023-03-31T10:27:36Z) - Transformer Based Multi-Grained Features for Unsupervised Person
Re-Identification [9.874360118638918]
視覚変換器(ViT)を改良したデュアルブランチネットワークアーキテクチャを構築した。
各ブランチで出力されるローカルトークンをリフォームし、その後一様に複数のストライプに分割して、部分レベルの特徴を生成する。
2つのブランチのグローバルトークンは、グローバル機能を生成するために平均化されます。
論文 参考訳(メタデータ) (2022-11-22T13:51:17Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - Integral Migrating Pre-trained Transformer Encoder-decoders for Visual
Object Detection [78.2325219839805]
imTEDは、数発のオブジェクト検出の最先端を最大7.6%改善する。
MS COCOデータセットの実験は、imTEDが一貫してそのデータセットを2.8%上回っていることを示している。
論文 参考訳(メタデータ) (2022-05-19T15:11:20Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - SRF-GAN: Super-Resolved Feature GAN for Multi-Scale Representation [5.634825161148483]
畳み込み型物体検出器の超解像特性のための新しい生成器を提案する。
本稿では,検出ベースジェネレータと特徴パッチ識別器で構成される超解像GAN(SRF-GAN)を設計する。
我々のSRFジェネレータは従来の方法に代えて、他の従来の検出器と簡単に微調整できる。
論文 参考訳(メタデータ) (2020-11-17T06:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。