論文の概要: Block shuffling learning for Deepfake Detection
- arxiv url: http://arxiv.org/abs/2202.02819v1
- Date: Sun, 6 Feb 2022 17:16:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 07:35:41.855764
- Title: Block shuffling learning for Deepfake Detection
- Title(参考訳): ディープフェイク検出のためのブロックシャッフル学習
- Authors: Sitong Liu, Zhichao Lian, Siqi Gu, Liang Xiao
- Abstract要約: この問題を解決するために,ブロックシャッフル学習法を提案する。
本稿では,ブロックを分割し,ブロック内およびブロック間をランダムにシャッフルする手法を提案する。
提案手法は,一般的な画像変換の面における一般化能力を含む,偽顔検出における最先端性能を実現する。
- 参考スコア(独自算出の注目度): 9.180904212520355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although the deepfake detection based on convolutional neural network has
achieved good results, the detection results show that these detectors show
obvious performance degradation when the input images undergo some common
transformations (like resizing, blurring), which indicates that the
generalization ability of the detector is insufficient. In this paper, we
propose a novel block shuffling learning method to solve this problem.
Specifically, we divide the images into blocks and then introduce the random
shuffling to intra-block and inter-block. Intra-block shuffling increases the
robustness of the detector and we also propose an adversarial loss algorithm to
overcome the over-fitting problem brought by the noise introduced by shuffling.
Moreover, we encourage the detector to focus on finding differences among the
local features through inter-block shuffling, and reconstruct the spatial
layout of the blocks to model the semantic associations between them.
Especially, our method can be easily integrated with various CNN models.
Extensive experiments show that our proposed method achieves state-of-the-art
performance in forgery face detection, including good generalization ability in
the face of common image transformations.
- Abstract(参考訳): 畳み込みニューラルネットワークに基づくディープフェイク検出は良好な結果を得たが、検出結果は、入力画像が共通の変換(リサイズ、ぼかしなど)を行うと、明らかに性能劣化を示し、検出器の一般化能力が不十分であることを示している。
本稿では,この問題を解決するための新しいブロックシャッフル学習手法を提案する。
具体的には、画像をブロックに分割し、ランダムシャッフルをブロック内およびブロック間に導入する。
ブロック内シャッフリングは検出器のロバスト性を高めるとともに,シャッフリングによって生じる雑音によるオーバーフィッティング問題を克服する逆損失アルゴリズムを提案する。
さらに,ブロック間シャッフルによる局所的特徴の違いの発見に焦点を合わせ,ブロックの空間的レイアウトを再構築し,それら間の意味的関連をモデル化することを推奨する。
特に,本手法は様々なCNNモデルと容易に統合できる。
提案手法は,一般的な画像変換に対して良好な一般化能力を含む,偽造顔検出における最先端の性能を実現することを示す。
関連論文リスト
- Robust Network Learning via Inverse Scale Variational Sparsification [55.64935887249435]
時間連続な逆スケール空間の定式化において、逆スケールの変動スペーサー化フレームワークを導入する。
周波数ベースの手法とは異なり、我々の手法は小さな特徴を滑らかにすることでノイズを除去するだけでなく、ノイズを除去する。
各種騒音に対する頑健性の向上によるアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-09-27T03:17:35Z) - Learning Spatiotemporal Inconsistency via Thumbnail Layout for Face Deepfake Detection [41.35861722481721]
社会とサイバーセキュリティに対するディープフェイクの脅威は、重大な公衆の不安を引き起こしている。
本稿では,Thumbnail Layout(TALL)という,エレガントでシンプルだが効果的な戦略を紹介する。
TALLはビデオクリップを予め定義されたレイアウトに変換し、空間的および時間的依存関係の保存を実現する。
論文 参考訳(メタデータ) (2024-03-15T12:48:44Z) - Self-supervised Transformer for Deepfake Detection [112.81127845409002]
現実世界のシナリオにおけるディープフェイク技術は、顔偽造検知器のより強力な一般化能力を必要とする。
転送学習に触発されて、他の大規模な顔関連タスクで事前訓練されたニューラルネットワークは、ディープフェイク検出に有用な機能を提供する可能性がある。
本稿では,自己教師型変換器を用いた音声視覚コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-02T17:44:40Z) - Saliency Constrained Arbitrary Image Style Transfer using SIFT and DCNN [22.57205921266602]
一般的なニューラルスタイルの転送方法を使用する場合、スタイル画像のテクスチャや色は通常、コンテンツ画像に不完全に転送される。
本稿では,その効果を低減・回避するための新しいサリエンシ制約手法を提案する。
実験により、ソースイメージの正当性マップは正しいマッチングを見つけ出し、アーティファクトを避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2022-01-14T09:00:55Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Self-Supervised Predictive Convolutional Attentive Block for Anomaly
Detection [97.93062818228015]
本稿では,再建に基づく機能を,新たな自己監督型予測アーキテクチャビルディングブロックに統合することを提案する。
我々のブロックは、受容領域におけるマスク領域に対する再構成誤差を最小限に抑える損失を備える。
画像やビデオの異常検出のための最先端フレームワークに組み込むことで,ブロックの汎用性を実証する。
論文 参考訳(メタデータ) (2021-11-17T13:30:31Z) - Improving DeepFake Detection Using Dynamic Face Augmentation [0.8793721044482612]
ほとんどの公開可能なDeepFake検出データセットには、限られたバリエーションがある。
ディープニューラルネットワークは、DeepFakeコンテンツの操作機能を検出するための学習ではなく、顔の特徴にオーバーフィットする傾向があります。
DeepFake検出を改善するために、CNN(Convolutional Neural Networks)をトレーニングするためのデータ拡張方法であるFace-Cutoutを紹介します。
論文 参考訳(メタデータ) (2021-02-18T20:25:45Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - A Compact Deep Learning Model for Face Spoofing Detection [4.250231861415827]
プレゼンテーションアタック検出(PAD)は研究コミュニティから大きな注目を集めている。
我々は、統一されたニューラルネットワークアーキテクチャにおいて、幅広い機能と深い機能の両方を融合することで、この問題に対処する。
この手順は、ROSE-Youtu、SiW、NUAA Imposterなどのさまざまなスプーフィングデータセットで行われます。
論文 参考訳(メタデータ) (2021-01-12T21:20:09Z) - Solving Inverse Problems With Deep Neural Networks -- Robustness
Included? [3.867363075280544]
近年の研究では、複数の画像再構成タスクにおけるディープニューラルネットワークの不安定性が指摘されている。
分類における敵対的攻撃と類似して、入力領域のわずかな歪みが深刻な成果物を生じさせる可能性が示された。
本稿では、未決定の逆問題を解決するためのディープラーニングベースのアルゴリズムの堅牢性について広範な研究を行うことにより、この懸念に新たな光を当てる。
論文 参考訳(メタデータ) (2020-11-09T09:33:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。