論文の概要: Identifying Invariant Texture Violation for Robust Deepfake Detection
- arxiv url: http://arxiv.org/abs/2012.10580v1
- Date: Sat, 19 Dec 2020 03:02:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 11:14:43.258723
- Title: Identifying Invariant Texture Violation for Robust Deepfake Detection
- Title(参考訳): ロバストディープフェイク検出のための不変テクスチャ違反の同定
- Authors: Xinwei Sun, Botong Wu, Wei Chen
- Abstract要約: Invariant Texture Learning frameworkは,低画質で公開されたデータセットにのみアクセスすることができる。
本手法は, 被写体から転写したテクスチャによって, 被写体表面の微視的顔のテクスチャが必然的に侵害されることを前提とした。
- 参考スコア(独自算出の注目度): 17.306386179823576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing deepfake detection methods have reported promising in-distribution
results, by accessing published large-scale dataset. However, due to the
non-smooth synthesis method, the fake samples in this dataset may expose
obvious artifacts (e.g., stark visual contrast, non-smooth boundary), which
were heavily relied on by most of the frame-level detection methods above. As
these artifacts do not come up in real media forgeries, the above methods can
suffer from a large degradation when applied to fake images that close to
reality. To improve the robustness for high-realism fake data, we propose the
Invariant Texture Learning (InTeLe) framework, which only accesses the
published dataset with low visual quality. Our method is based on the prior
that the microscopic facial texture of the source face is inevitably violated
by the texture transferred from the target person, which can hence be regarded
as the invariant characterization shared among all fake images. To learn such
an invariance for deepfake detection, our InTeLe introduces an auto-encoder
framework with different decoders for pristine and fake images, which are
further appended with a shallow classifier in order to separate out the obvious
artifact-effect. Equipped with such a separation, the extracted embedding by
encoder can capture the texture violation in fake images, followed by the
classifier for the final pristine/fake prediction. As a theoretical guarantee,
we prove the identifiability of such an invariance texture violation, i.e., to
be precisely inferred from observational data. The effectiveness and utility of
our method are demonstrated by promising generalization ability from
low-quality images with obvious artifacts to fake images with high realism.
- Abstract(参考訳): 既存のdeepfake検出手法では、公開済みの大規模データセットにアクセスすることで、配信結果の有望性が報告されている。
しかし、非滑らか合成法により、このデータセットの偽のサンプルは、上記のフレームレベルの検出方法のほとんどに大きく依存していた明らかな人工物(例えば、スターク視覚コントラスト、非滑らか境界)を明らかにする可能性がある。
これらのアーティファクトは、現実のメディア偽造には現れないので、現実に近い偽画像に適用すると、上記の方法は大きく劣化する可能性がある。
高実在性偽データに対するロバスト性を改善するために、低視品質のデータセットのみにアクセスする不変テクスチャ学習(InTeLe)フレームワークを提案する。
本手法は,対象人物から移入されたテクスチャによって,原顔の微視的な顔のテクスチャが必然的に侵害されることから,すべての偽画像間で共有される不変特性と見なすことができる。
このようなディープフェイク検出の不変性を学習するために、我々は、プリスタンとフェイクイメージのための異なるデコーダを持つ自動エンコーダフレームワークを導入しました。
このような分離により、エンコーダによる抽出された埋め込みは、フェイク画像のテクスチャ違反をキャプチャし、次いで最終プリズム/フェイク予測のための分類器を付加することができる。
理論的保証として,このような非分散テクスチャ違反の同定可能性,すなわち観測データから正確に推測できることを示す。
本手法の有効性と有用性は,低品質画像から明らかなアーティファクト,高リアリズムの偽画像への一般化を約束することによって実証された。
関連論文リスト
- On the Effectiveness of Dataset Alignment for Fake Image Detection [28.68129042301801]
優れた検出器は、セマンティックコンテンツ、解像度、ファイルフォーマットなどの画像特性を無視しながら、生成モデル指紋に焦点を当てるべきである。
この研究では、これらのアルゴリズムの選択に加えて、堅牢な検出器をトレーニングするためには、リアル/フェイク画像の整列したデータセットも必要である、と論じる。
そこで本研究では, LDMの家族に対して, LDMのオートエンコーダを用いて実画像の再構成を行う手法を提案する。
論文 参考訳(メタデータ) (2024-10-15T17:58:07Z) - FSBI: Deepfakes Detection with Frequency Enhanced Self-Blended Images [17.707379977847026]
本稿では、ディープフェイク検出のための周波数強調自己ブレンド画像手法を提案する。
提案手法はFF++とCeleb-DFデータセットで評価されている。
論文 参考訳(メタデータ) (2024-06-12T20:15:00Z) - DeepFidelity: Perceptual Forgery Fidelity Assessment for Deepfake
Detection [67.3143177137102]
ディープフェイク検出(Deepfake detection)とは、画像やビデオにおいて、人工的に生成された顔や編集された顔を検出すること。
本稿では,実顔と偽顔とを適応的に識別するDeepFidelityという新しいDeepfake検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:19:45Z) - Deepfake detection by exploiting surface anomalies: the SurFake approach [29.088218634944116]
本稿では, ディープフェイク生成が, 買収時のシーン全体の特性に与える影響について検討する。
画像に描かれた表面の特性を解析することにより、深度検出のためにCNNを訓練するのに使用できる記述子を得ることができる。
論文 参考訳(メタデータ) (2023-10-31T16:54:14Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Detecting Deepfakes with Self-Blended Images [37.374772758057844]
本稿では,深度情報を検出するために,SBI(Self-blended Image)と呼ばれる新しい合成トレーニングデータを提案する。
SBIは、単一のプリスタン画像から擬似ソースとターゲットイメージを混合して生成される。
我々は,FF++,CDF,DFD,DFDC,DFDCP,FFIWデータセットの最先端手法との比較を行った。
論文 参考訳(メタデータ) (2022-04-18T15:44:35Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - What makes fake images detectable? Understanding properties that
generalize [55.4211069143719]
深層ネットワークは、博士画像の微妙なアーティファクトを拾い上げることができる。
我々は、偽画像のどの特性が検出可能かを理解することを模索する。
検出可能な特性を誇張する手法を示す。
論文 参考訳(メタデータ) (2020-08-24T17:50:28Z) - FakePolisher: Making DeepFakes More Detection-Evasive by Shallow
Reconstruction [30.59382916497875]
GANベースの画像生成法はまだ不完全であり、アップサンプリング設計は、特定のアーチファクトパターンを合成画像に残すことに制限がある。
本稿では,学習線形辞書を用いて,偽画像の浅部再構成を行うFakePolisherというシンプルなアプローチを考案する。
提案手法の有効性を実証し,3つの最先端のDeepFake検出手法と16のGANを用いたフェイク画像生成手法によるフェイク画像の総合評価を行った。
論文 参考訳(メタデータ) (2020-06-13T01:48:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。