論文の概要: Block shuffling learning for Deepfake Detection
- arxiv url: http://arxiv.org/abs/2202.02819v2
- Date: Thu, 13 Jul 2023 09:13:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 17:55:49.519000
- Title: Block shuffling learning for Deepfake Detection
- Title(参考訳): ディープフェイク検出のためのブロックシャッフル学習
- Authors: Sitong Liu, Zhichao Lian, Siqi Gu, Liang Xiao
- Abstract要約: 畳み込みニューラルネットワーク(CNN)に基づくディープフェイク検出手法は精度が高いことを示した。
これらの手法は、未知の偽造法や共通変換に直面すると、しばしば性能が低下する。
本稿では,この問題に対処するためのブロックシャッフル正規化手法を提案する。
- 参考スコア(独自算出の注目度): 9.180904212520355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deepfake detection methods based on convolutional neural networks (CNN) have
demonstrated high accuracy. \textcolor{black}{However, these methods often
suffer from decreased performance when faced with unknown forgery methods and
common transformations such as resizing and blurring, resulting in deviations
between training and testing domains.} This phenomenon, known as overfitting,
poses a significant challenge. To address this issue, we propose a novel block
shuffling regularization method. Firstly, our approach involves dividing the
images into blocks and applying both intra-block and inter-block shuffling
techniques. This process indirectly achieves weight-sharing across different
dimensions. Secondly, we introduce an adversarial loss algorithm to mitigate
the overfitting problem induced by the shuffling noise. Finally, we restore the
spatial layout of the blocks to capture the semantic associations among them.
Extensive experiments validate the effectiveness of our proposed method, which
surpasses existing approaches in forgery face detection. Notably, our method
exhibits excellent generalization capabilities, demonstrating robustness
against cross-dataset evaluations and common image transformations. Especially
our method can be easily integrated with various CNN models. Source code is
available at
\href{https://github.com/NoWindButRain/BlockShuffleLearning}{Github}.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)に基づくディープフェイク検出手法は精度が高いことを示した。
しかし、これらのメソッドは、未知の偽造メソッドや、再サイズやぼやけなどの一般的な変換に直面してパフォーマンスが低下し、トレーニングとテストドメインのずれが発生することが多い。
オーバーフィッティング(overfitting)として知られるこの現象は、大きな課題を引き起こします。
そこで本研究では,新しいブロックシャッフル正規化法を提案する。
まず,画像のブロック分割を行い,ブロック内シャッフル法とブロック間シャッフル法を併用する。
このプロセスは間接的に異なる次元にわたる重み共有を実現する。
第2に,シャッフルノイズによるオーバーフィッティング問題を軽減するための逆損失アルゴリズムを提案する。
最後に,ブロックの空間的レイアウトを復元し,それらの意味的関連を捉える。
大規模な実験により,偽顔検出における既存手法を超越した提案手法の有効性が検証された。
特に,この手法は汎用性に優れ,データセット間評価や共通画像変換に対する頑健性を示す。
特に本手法は様々なCNNモデルと容易に統合できる。
ソースコードは \href{https://github.com/nowindbutrain/blockshufflelearning}{github}で入手できる。
関連論文リスト
- Robust Network Learning via Inverse Scale Variational Sparsification [55.64935887249435]
時間連続な逆スケール空間の定式化において、逆スケールの変動スペーサー化フレームワークを導入する。
周波数ベースの手法とは異なり、我々の手法は小さな特徴を滑らかにすることでノイズを除去するだけでなく、ノイズを除去する。
各種騒音に対する頑健性の向上によるアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-09-27T03:17:35Z) - Learning Spatiotemporal Inconsistency via Thumbnail Layout for Face Deepfake Detection [41.35861722481721]
社会とサイバーセキュリティに対するディープフェイクの脅威は、重大な公衆の不安を引き起こしている。
本稿では,Thumbnail Layout(TALL)という,エレガントでシンプルだが効果的な戦略を紹介する。
TALLはビデオクリップを予め定義されたレイアウトに変換し、空間的および時間的依存関係の保存を実現する。
論文 参考訳(メタデータ) (2024-03-15T12:48:44Z) - Self-supervised Transformer for Deepfake Detection [112.81127845409002]
現実世界のシナリオにおけるディープフェイク技術は、顔偽造検知器のより強力な一般化能力を必要とする。
転送学習に触発されて、他の大規模な顔関連タスクで事前訓練されたニューラルネットワークは、ディープフェイク検出に有用な機能を提供する可能性がある。
本稿では,自己教師型変換器を用いた音声視覚コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-02T17:44:40Z) - Saliency Constrained Arbitrary Image Style Transfer using SIFT and DCNN [22.57205921266602]
一般的なニューラルスタイルの転送方法を使用する場合、スタイル画像のテクスチャや色は通常、コンテンツ画像に不完全に転送される。
本稿では,その効果を低減・回避するための新しいサリエンシ制約手法を提案する。
実験により、ソースイメージの正当性マップは正しいマッチングを見つけ出し、アーティファクトを避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2022-01-14T09:00:55Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Learning Discriminative Shrinkage Deep Networks for Image Deconvolution [122.79108159874426]
本稿では,これらの用語を暗黙的にモデル化する識別的縮小関数を学習することで,効果的に非盲検デコンボリューション手法を提案する。
実験結果から,提案手法は最先端の手法に対して,効率と精度の点で好適に動作することがわかった。
論文 参考訳(メタデータ) (2021-11-27T12:12:57Z) - Self-Supervised Predictive Convolutional Attentive Block for Anomaly
Detection [97.93062818228015]
本稿では,再建に基づく機能を,新たな自己監督型予測アーキテクチャビルディングブロックに統合することを提案する。
我々のブロックは、受容領域におけるマスク領域に対する再構成誤差を最小限に抑える損失を備える。
画像やビデオの異常検出のための最先端フレームワークに組み込むことで,ブロックの汎用性を実証する。
論文 参考訳(メタデータ) (2021-11-17T13:30:31Z) - Improving DeepFake Detection Using Dynamic Face Augmentation [0.8793721044482612]
ほとんどの公開可能なDeepFake検出データセットには、限られたバリエーションがある。
ディープニューラルネットワークは、DeepFakeコンテンツの操作機能を検出するための学習ではなく、顔の特徴にオーバーフィットする傾向があります。
DeepFake検出を改善するために、CNN(Convolutional Neural Networks)をトレーニングするためのデータ拡張方法であるFace-Cutoutを紹介します。
論文 参考訳(メタデータ) (2021-02-18T20:25:45Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - A Compact Deep Learning Model for Face Spoofing Detection [4.250231861415827]
プレゼンテーションアタック検出(PAD)は研究コミュニティから大きな注目を集めている。
我々は、統一されたニューラルネットワークアーキテクチャにおいて、幅広い機能と深い機能の両方を融合することで、この問題に対処する。
この手順は、ROSE-Youtu、SiW、NUAA Imposterなどのさまざまなスプーフィングデータセットで行われます。
論文 参考訳(メタデータ) (2021-01-12T21:20:09Z) - Solving Inverse Problems With Deep Neural Networks -- Robustness
Included? [3.867363075280544]
近年の研究では、複数の画像再構成タスクにおけるディープニューラルネットワークの不安定性が指摘されている。
分類における敵対的攻撃と類似して、入力領域のわずかな歪みが深刻な成果物を生じさせる可能性が示された。
本稿では、未決定の逆問題を解決するためのディープラーニングベースのアルゴリズムの堅牢性について広範な研究を行うことにより、この懸念に新たな光を当てる。
論文 参考訳(メタデータ) (2020-11-09T09:33:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。