論文の概要: Identifying Invariant Texture Violation for Robust Deepfake Detection
- arxiv url: http://arxiv.org/abs/2012.10580v1
- Date: Sat, 19 Dec 2020 03:02:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 11:14:43.258723
- Title: Identifying Invariant Texture Violation for Robust Deepfake Detection
- Title(参考訳): ロバストディープフェイク検出のための不変テクスチャ違反の同定
- Authors: Xinwei Sun, Botong Wu, Wei Chen
- Abstract要約: Invariant Texture Learning frameworkは,低画質で公開されたデータセットにのみアクセスすることができる。
本手法は, 被写体から転写したテクスチャによって, 被写体表面の微視的顔のテクスチャが必然的に侵害されることを前提とした。
- 参考スコア(独自算出の注目度): 17.306386179823576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing deepfake detection methods have reported promising in-distribution
results, by accessing published large-scale dataset. However, due to the
non-smooth synthesis method, the fake samples in this dataset may expose
obvious artifacts (e.g., stark visual contrast, non-smooth boundary), which
were heavily relied on by most of the frame-level detection methods above. As
these artifacts do not come up in real media forgeries, the above methods can
suffer from a large degradation when applied to fake images that close to
reality. To improve the robustness for high-realism fake data, we propose the
Invariant Texture Learning (InTeLe) framework, which only accesses the
published dataset with low visual quality. Our method is based on the prior
that the microscopic facial texture of the source face is inevitably violated
by the texture transferred from the target person, which can hence be regarded
as the invariant characterization shared among all fake images. To learn such
an invariance for deepfake detection, our InTeLe introduces an auto-encoder
framework with different decoders for pristine and fake images, which are
further appended with a shallow classifier in order to separate out the obvious
artifact-effect. Equipped with such a separation, the extracted embedding by
encoder can capture the texture violation in fake images, followed by the
classifier for the final pristine/fake prediction. As a theoretical guarantee,
we prove the identifiability of such an invariance texture violation, i.e., to
be precisely inferred from observational data. The effectiveness and utility of
our method are demonstrated by promising generalization ability from
low-quality images with obvious artifacts to fake images with high realism.
- Abstract(参考訳): 既存のdeepfake検出手法では、公開済みの大規模データセットにアクセスすることで、配信結果の有望性が報告されている。
しかし、非滑らか合成法により、このデータセットの偽のサンプルは、上記のフレームレベルの検出方法のほとんどに大きく依存していた明らかな人工物(例えば、スターク視覚コントラスト、非滑らか境界)を明らかにする可能性がある。
これらのアーティファクトは、現実のメディア偽造には現れないので、現実に近い偽画像に適用すると、上記の方法は大きく劣化する可能性がある。
高実在性偽データに対するロバスト性を改善するために、低視品質のデータセットのみにアクセスする不変テクスチャ学習(InTeLe)フレームワークを提案する。
本手法は,対象人物から移入されたテクスチャによって,原顔の微視的な顔のテクスチャが必然的に侵害されることから,すべての偽画像間で共有される不変特性と見なすことができる。
このようなディープフェイク検出の不変性を学習するために、我々は、プリスタンとフェイクイメージのための異なるデコーダを持つ自動エンコーダフレームワークを導入しました。
このような分離により、エンコーダによる抽出された埋め込みは、フェイク画像のテクスチャ違反をキャプチャし、次いで最終プリズム/フェイク予測のための分類器を付加することができる。
理論的保証として,このような非分散テクスチャ違反の同定可能性,すなわち観測データから正確に推測できることを示す。
本手法の有効性と有用性は,低品質画像から明らかなアーティファクト,高リアリズムの偽画像への一般化を約束することによって実証された。
関連論文リスト
- DeepFidelity: Perceptual Forgery Fidelity Assessment for Deepfake
Detection [67.3143177137102]
ディープフェイク検出(Deepfake detection)とは、画像やビデオにおいて、人工的に生成された顔や編集された顔を検出すること。
本稿では,実顔と偽顔とを適応的に識別するDeepFidelityという新しいDeepfake検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:19:45Z) - Deepfake detection by exploiting surface anomalies: the SurFake approach [31.20717767486914]
本稿では, ディープフェイク生成が, 買収時のシーン全体の特性に与える影響について検討する。
画像に描かれた表面の特性を解析することにより、深度検出のためにCNNを訓練するのに使用できる記述子を得ることができる。
論文 参考訳(メタデータ) (2023-10-31T16:54:14Z) - Improving Cross-dataset Deepfake Detection with Deep Information
Decomposition [57.284370468207214]
ディープフェイク技術は、セキュリティと社会的信頼に重大な脅威をもたらす。
既存の検出方法は、クロスデータセットのシナリオに直面した場合、パフォーマンスの急激な低下に悩まされる。
本稿では,深層情報分解(DID)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Deepfake Detection of Occluded Images Using a Patch-based Approach [1.6114012813668928]
本研究では, 顔全体と顔のパッチを用いて, 障害物の有無で実像と偽像を識別する深層学習手法を提案する。
偽画像を作成するには、FFHQイメージでStyleGANとStyleGAN2を、CelebAイメージでStarGANとPGGANをトレーニングする。
提案手法は他の手法よりも早期に高い結果に到達し、異なる構築されたデータセットにおいてSoTAの結果を0.4%-7.9%向上させる。
論文 参考訳(メタデータ) (2023-04-10T12:12:14Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural
Images [59.71861772648853]
我々は,最先端拡散モデルにより生成された偽画像の正当性に関する体系的研究を開拓した。
我々の分析は、偽画像は共通の低レベルな手がかりを共有しており、容易に認識できることを示している。
本設定では,偽検出手法の性能を定量的に評価し,コントラッシブ・ベース・ディエンタング・ストラテジーを導入する。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Detecting Deepfakes with Self-Blended Images [37.374772758057844]
本稿では,深度情報を検出するために,SBI(Self-blended Image)と呼ばれる新しい合成トレーニングデータを提案する。
SBIは、単一のプリスタン画像から擬似ソースとターゲットイメージを混合して生成される。
我々は,FF++,CDF,DFD,DFDC,DFDCP,FFIWデータセットの最先端手法との比較を行った。
論文 参考訳(メタデータ) (2022-04-18T15:44:35Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - What makes fake images detectable? Understanding properties that
generalize [55.4211069143719]
深層ネットワークは、博士画像の微妙なアーティファクトを拾い上げることができる。
我々は、偽画像のどの特性が検出可能かを理解することを模索する。
検出可能な特性を誇張する手法を示す。
論文 参考訳(メタデータ) (2020-08-24T17:50:28Z) - FakePolisher: Making DeepFakes More Detection-Evasive by Shallow
Reconstruction [30.59382916497875]
GANベースの画像生成法はまだ不完全であり、アップサンプリング設計は、特定のアーチファクトパターンを合成画像に残すことに制限がある。
本稿では,学習線形辞書を用いて,偽画像の浅部再構成を行うFakePolisherというシンプルなアプローチを考案する。
提案手法の有効性を実証し,3つの最先端のDeepFake検出手法と16のGANを用いたフェイク画像生成手法によるフェイク画像の総合評価を行った。
論文 参考訳(メタデータ) (2020-06-13T01:48:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。