論文の概要: DETER: Detecting Edited Regions for Deterring Generative Manipulations
- arxiv url: http://arxiv.org/abs/2312.10539v1
- Date: Sat, 16 Dec 2023 20:38:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 16:09:35.829224
- Title: DETER: Detecting Edited Regions for Deterring Generative Manipulations
- Title(参考訳): deter: 生成的操作を抑止する編集領域の検出
- Authors: Sai Wang, Ye Zhu, Ruoyu Wang, Amaya Dharmasiri, Olga Russakovsky, Yu
Wu
- Abstract要約: 我々は、編集済み画像領域を検出できる大規模なデータセットであるDETERを紹介する。
Deterには、最先端の4つのジェネレータと3つの編集操作によって操作された30万の画像が含まれている。
人間による研究では、DETERのヒトの深層偽検出率は、他の偽のデータセットよりも20.4%低いことが確認されている。
- 参考スコア(独自算出の注目度): 31.85788472041527
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative AI capabilities have grown substantially in recent years, raising
renewed concerns about potential malicious use of generated data, or "deep
fakes". However, deep fake datasets have not kept up with generative AI
advancements sufficiently to enable the development of deep fake detection
technology which can meaningfully alert human users in real-world settings.
Existing datasets typically use GAN-based models and introduce spurious
correlations by always editing similar face regions. To counteract the
shortcomings, we introduce DETER, a large-scale dataset for DETEcting edited
image Regions and deterring modern advanced generative manipulations. DETER
includes 300,000 images manipulated by four state-of-the-art generators with
three editing operations: face swapping (a standard coarse image manipulation),
inpainting (a novel manipulation for deep fake datasets), and attribute editing
(a subtle fine-grained manipulation). While face swapping and attribute editing
are performed on similar face regions such as eyes and nose, the inpainting
operation can be performed on random image regions, removing the spurious
correlations of previous datasets. Careful image post-processing is performed
to ensure deep fakes in DETER look realistic, and human studies confirm that
human deep fake detection rate on DETER is 20.4% lower than on other fake
datasets. Equipped with the dataset, we conduct extensive experiments and
break-down analysis using our rich annotations and improved benchmark
protocols, revealing future directions and the next set of challenges in
developing reliable regional fake detection models.
- Abstract(参考訳): 生成AI能力は近年大きく成長し、生成したデータの悪意のある使用や"ディープフェイク"に対する新たな懸念が高まっている。
しかし、ディープフェイクデータセットは、現実の環境で人間のユーザーを有意義に警告できるディープフェイク検出技術の開発を可能にするために、生成AIの進歩に十分追いついていない。
既存のデータセットは通常ganベースのモデルを使用しており、同じ顔領域を常に編集することでスプリアス相関を導入する。
この欠点に対処するため,編集済み画像領域の大規模データセットであるDETERを導入し,近代的な生成操作を抑える。
DETERには、顔スワップ(標準的な粗いイメージ操作)、インペイント(ディープフェイクデータセットの新しい操作)、属性編集(微妙なきめ細かい操作)の3つの編集操作を含む、最先端の4つのジェネレータによって操作される30万の画像が含まれている。
目や鼻などの類似の顔領域で顔スワッピングや属性編集を行う一方、無作為な画像領域で塗装操作を行うことができ、過去のデータセットの素早い相関を除去できる。
DETERのディープフェイク検出率は、他のフェイクデータセットよりも20.4%低いことが人間による研究によって確認されている。
データセットを具備し、リッチアノテーションとベンチマークプロトコルを改善した広範な実験とブレークダウン分析を行い、今後の方向性と、信頼性の高い地域偽検出モデルの開発における次の課題を明らかにする。
関連論文リスト
- GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - DeepFidelity: Perceptual Forgery Fidelity Assessment for Deepfake
Detection [67.3143177137102]
ディープフェイク検出(Deepfake detection)とは、画像やビデオにおいて、人工的に生成された顔や編集された顔を検出すること。
本稿では,実顔と偽顔とを適応的に識別するDeepFidelityという新しいDeepfake検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:19:45Z) - AntifakePrompt: Prompt-Tuned Vision-Language Models are Fake Image Detectors [24.78672820633581]
深層生成モデルは、偽情報や著作権侵害に対する懸念を高めながら、驚くほど偽のイメージを作成することができる。
実画像と偽画像とを区別するためにディープフェイク検出技術が開発された。
本稿では,視覚言語モデルとアクシデントチューニング技術を用いて,Antifake Promptと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-26T14:23:45Z) - Real Face Foundation Representation Learning for Generalized Deepfake
Detection [74.4691295738097]
ディープフェイク技術の出現は、個人のプライバシーと公共の安全に脅威をもたらすため、社会的な問題となっている。
十分な偽の顔を集めることはほぼ不可能であり、既存の検出器があらゆる種類の操作に一般化することは困難である。
本稿では,大規模な実顔データセットから一般表現を学習することを目的としたリアルフェイスファウンデーション表現学習(RFFR)を提案する。
論文 参考訳(メタデータ) (2023-03-15T08:27:56Z) - A Dataless FaceSwap Detection Approach Using Synthetic Images [5.73382615946951]
本稿では,StyleGAN3を用いた合成データを用いて,実データの必要性を解消するディープフェイク検出手法を提案する。
これは、実際のデータを使用する従来のトレーニング方法論に匹敵するだけでなく、少量の実際のデータで微調整された場合、より優れた一般化能力を示す。
論文 参考訳(メタデータ) (2022-12-05T19:49:45Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。