論文の概要: CORE: Consistent Representation Learning for Face Forgery Detection
- arxiv url: http://arxiv.org/abs/2206.02749v1
- Date: Mon, 6 Jun 2022 17:15:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 17:20:37.532845
- Title: CORE: Consistent Representation Learning for Face Forgery Detection
- Title(参考訳): CORE:顔偽造検出のための一貫性表現学習
- Authors: Yunsheng Ni, Depu Meng, Changqian Yu, Chengbin Quan, Dongchun Ren,
Youjian Zhao
- Abstract要約: 顔操作技術は急速に発展し、公衆の関心を喚起する。
バニラ畳み込みニューラルネットワークは許容可能な性能を達成するが、それらは過度に適合する問題に悩まされる。
この問題を和らげるために、いくつかの消去ベースの拡張を導入する傾向があります。
これらの手法は実際には、異なる拡張に対してより一貫性のある表現を暗黙的に誘導しようとする。
しかし、明示的な正規化が欠如しているため、異なる表現間の整合性は不十分である。
- 参考スコア(独自算出の注目度): 11.750814179329343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face manipulation techniques develop rapidly and arouse widespread public
concerns. Despite that vanilla convolutional neural networks achieve acceptable
performance, they suffer from the overfitting issue. To relieve this issue,
there is a trend to introduce some erasing-based augmentations. We find that
these methods indeed attempt to implicitly induce more consistent
representations for different augmentations via assigning the same label for
different augmented images. However, due to the lack of explicit
regularization, the consistency between different representations is less
satisfactory. Therefore, we constrain the consistency of different
representations explicitly and propose a simple yet effective framework,
COnsistent REpresentation Learning (CORE). Specifically, we first capture the
different representations with different augmentations, then regularize the
cosine distance of the representations to enhance the consistency. Extensive
experiments (in-dataset and cross-dataset) demonstrate that CORE performs
favorably against state-of-the-art face forgery detection methods.
- Abstract(参考訳): 顔操作技術は急速に発展し、公衆の関心を喚起する。
バニラ畳み込みニューラルネットワークは許容可能な性能を達成するが、それらは過度に適合する問題に悩まされる。
この問題を軽減するために、消去に基づく拡張を導入する傾向がある。
これらの手法は、異なる拡張画像に対して同じラベルを割り当てることで、異なる拡張に対するより一貫性のある表現を暗黙的に導き出そうとしている。
しかし、明示的な正規化がないため、異なる表現間の一貫性は満足できない。
したがって、異なる表現の一貫性を明示的に制約し、シンプルで効果的なフレームワークであるConsistent Representation Learning (CORE)を提案する。
具体的には、まず異なる拡張で異なる表現をキャプチャし、次に表現の余弦距離を正規化し、一貫性を高める。
大規模な実験(データセットとクロスデータセット)により、COREは最先端の顔偽造検出法に対して好適に機能することが示された。
関連論文リスト
- Distractors-Immune Representation Learning with Cross-modal Contrastive Regularization for Change Captioning [71.14084801851381]
変更キャプションは、類似した画像間のセマンティックな変化を簡潔に記述することを目的としている。
既存のほとんどの手法は、それらの違いを直接キャプチャし、エラーを起こしやすい特徴を得るリスクを負う。
本稿では,2つの画像表現の対応するチャネルを関連づけるイントラクタ免疫表現学習ネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T13:00:33Z) - Contrastive Learning of View-Invariant Representations for Facial
Expressions Recognition [27.75143621836449]
コントラスト学習に基づく新しいビュー不変FERフレームワークであるViewFXを提案する。
提案手法を2つの公開多視点顔表情認識データセット上で検証する。
論文 参考訳(メタデータ) (2023-11-12T14:05:09Z) - Learning Invariance from Generated Variance for Unsupervised Person
Re-identification [15.096776375794356]
従来のデータ拡張をGAN(Generative Adversarial Network)に置き換えることを提案する。
3次元メッシュガイド型人物画像生成器は、人物画像をID関連およびID非関連の特徴に分解するために提案される。
生成モジュールとコントラストモジュールを共同でトレーニングすることにより、主流の大規模ベンチマーク上で、最先端の非教師なしのReID性能を実現する。
論文 参考訳(メタデータ) (2023-01-02T15:40:14Z) - Semantics-Consistent Feature Search for Self-Supervised Visual
Representation Learning [15.242064747740116]
拡張手順中に異なる意味概念を含む望ましくないビューを構築するのは避けられない。
これにより表現の意味的一貫性が損なわれ、これらの拡張を特徴空間に無差別に近づけることになる。
本研究では,特徴量の増大と,この負の効果を緩和する新しい意味論的特徴探索(SCFS)手法を提案する。
論文 参考訳(メタデータ) (2022-12-13T11:13:59Z) - Adversarial Cross-View Disentangled Graph Contrastive Learning [30.97720522293301]
グラフデータから最小かつ十分な表現を学習するために,情報ボトルネックの原則に従う ACDGCL を導入する。
提案したモデルが,複数のベンチマークデータセット上でのグラフ分類タスクの最先端性より優れていることを実証的に実証した。
論文 参考訳(メタデータ) (2022-09-16T03:48:39Z) - R\'enyiCL: Contrastive Representation Learning with Skew R\'enyi
Divergence [78.15455360335925]
我々はR'enyiCLという新しい頑健なコントラスト学習手法を提案する。
我々の手法は R'enyi divergence の変動的下界の上に構築されている。
我々は,R'enyi の対照的な学習目的が,自然に強い負のサンプリングと簡単な正のサンプリングを同時に行うことを示す。
論文 参考訳(メタデータ) (2022-08-12T13:37:05Z) - LTT-GAN: Looking Through Turbulence by Inverting GANs [86.25869403782957]
本稿では,よく訓練されたGANによってカプセル化された視覚的事前情報を利用した最初の乱流緩和手法を提案する。
視覚的先行性に基づき、周期的な文脈距離で復元された画像の同一性を維持することを学ぶことを提案する。
本手法は, 回復した結果の視覚的品質と顔認証精度の両方において, 先行技術よりも優れていた。
論文 参考訳(メタデータ) (2021-12-04T16:42:13Z) - Improving Transferability of Representations via Augmentation-Aware
Self-Supervision [117.15012005163322]
AugSelfは、ランダムに強化された2つのサンプル間の拡張パラメータの違いを学習する補助的な自己教師型損失である。
私たちの直感は、AugSelfが学習表現における拡張認識情報の保存を奨励していることです。
AugSelfは、最新の最先端の表現学習手法に、無視できる追加のトレーニングコストで簡単に組み込むことができる。
論文 参考訳(メタデータ) (2021-11-18T10:43:50Z) - Residual Relaxation for Multi-view Representation Learning [64.40142301026805]
マルチビュー手法は、同じ画像の複数のビューをアライメントすることで学習する。
画像回転などの有用な拡張は、セマンティックシフトを引き起こすため、多視点法には有害である。
我々は,Pretext-aware Residual Relaxation (Prelax) という汎用的な手法を開発し,正確なアライメントを緩和する。
論文 参考訳(メタデータ) (2021-10-28T17:57:17Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。