論文の概要: Towards Generalizable and Robust Face Manipulation Detection via
Bag-of-local-feature
- arxiv url: http://arxiv.org/abs/2103.07915v1
- Date: Sun, 14 Mar 2021 12:50:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 14:10:00.226261
- Title: Towards Generalizable and Robust Face Manipulation Detection via
Bag-of-local-feature
- Title(参考訳): Bag-of-local-featureによる顔操作の一般化とロバスト化に向けて
- Authors: Changtao Miao, Qi Chu, Weihai Li, Tao Gong, Wanyi Zhuang and Nenghai
Yu
- Abstract要約: そこで本稿では,局所的特徴の一般化能力とロバスト性を向上する顔の操作検出手法を提案する。
具体的には、パッチ間関係をエンコードするためにbag-of-featureアプローチを使ってトランスフォーマーを拡張し、明示的な監督なしにローカルな偽造機能を学ぶことができる。
- 参考スコア(独自算出の注目度): 55.47546606878931
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past several years, in order to solve the problem of malicious abuse
of facial manipulation technology, face manipulation detection technology has
obtained considerable attention and achieved remarkable progress. However, most
existing methods have very impoverished generalization ability and robustness.
In this paper, we propose a novel method for face manipulation detection, which
can improve the generalization ability and robustness by bag-of-local-feature.
Specifically, we extend Transformers using bag-of-feature approach to encode
inter-patch relationships, allowing it to learn local forgery features without
any explicit supervision. Extensive experiments demonstrate that our method can
outperform competing state-of-the-art methods on FaceForensics++, Celeb-DF and
DeeperForensics-1.0 datasets.
- Abstract(参考訳): 過去数年間、顔操作技術の悪質な虐待の問題を解決するために、顔操作検出技術はかなりの注目を集め、顕著な進歩を達成しました。
しかし、既存の手法の多くは一般化能力と堅牢性が非常に貧弱である。
本稿では,局所的特徴量による一般化とロバスト性を向上させるための新しい顔操作検出法を提案する。
具体的には、パッチ間関係をエンコードするためにbag-of-featureアプローチを使ってトランスフォーマーを拡張し、明示的な監督なしにローカルな偽造機能を学ぶことができる。
広範な実験では、FaceForensics++、Celeb-DF、DeeperForensics-1.0データセットの競合する最先端のメソッドを上回ります。
関連論文リスト
- UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - COMICS: End-to-end Bi-grained Contrastive Learning for Multi-face Forgery Detection [56.7599217711363]
顔偽造認識法は一度に1つの顔しか処理できない。
ほとんどの顔偽造認識法は一度に1つの顔しか処理できない。
マルチフェイスフォージェリ検出のためのエンドツーエンドフレームワークであるCOMICSを提案する。
論文 参考訳(メタデータ) (2023-08-03T03:37:13Z) - Self-supervised Transformer for Deepfake Detection [112.81127845409002]
現実世界のシナリオにおけるディープフェイク技術は、顔偽造検知器のより強力な一般化能力を必要とする。
転送学習に触発されて、他の大規模な顔関連タスクで事前訓練されたニューラルネットワークは、ディープフェイク検出に有用な機能を提供する可能性がある。
本稿では,自己教師型変換器を用いた音声視覚コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-02T17:44:40Z) - Robust Face-Swap Detection Based on 3D Facial Shape Information [59.32489266682952]
顔のスワップ画像やビデオは、悪意ある攻撃者を惹きつけ、重要な人物の信用を損ねている。
以前のピクセルレベルのアーティファクトに基づく検出技術は、常に不明瞭なパターンにフォーカスするが、利用可能なセマンティックなヒントは無視する。
キーフィギュアの顔・スワップ検出のための外観・形状特徴をフル活用するための生体情報に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-04-28T09:35:48Z) - Mining Generalized Features for Detecting AI-Manipulated Fake Faces [39.86126596985567]
本稿では,本質的な特徴をマイニングし,分布バイアスを排除し,一般化能力を向上する新しい枠組みを提案する。
提案手法は,最もポピュラーで最先端な操作技術を用いて,偽顔データセットの4つのカテゴリで評価する。
論文 参考訳(メタデータ) (2020-10-27T08:41:16Z) - Attentive Semantic Exploring for Manipulated Face Detection [12.635690519021555]
識別的欠陥や歪みがこれらのフラグメントと密接に関連していることから,画像のセグメンテーションを意味的フラグメントに分割することが有効である可能性が示唆された。
本稿では,多レベル顔意味とカスケード注意機構に基づく顔検出手法を提案する。
論文 参考訳(メタデータ) (2020-05-06T17:08:56Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z) - DeepFakes and Beyond: A Survey of Face Manipulation and Fake Detection [17.602598143822917]
このサーベイは、DeepFakeメソッドを含む顔画像を操作するテクニックのレビューを提供する。
特に、顔全体の合成、アイデンティティスワップ(ディープフェイク)、属性操作、式スワップの4種類の顔操作がレビューされている。
われわれは最新世代のDeepFakesに特に注意を払っており、フェイク検出の改善と課題を強調している。
論文 参考訳(メタデータ) (2020-01-01T09:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。