論文の概要: FaceGuard: Proactive Deepfake Detection
- arxiv url: http://arxiv.org/abs/2109.05673v1
- Date: Mon, 13 Sep 2021 02:36:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:53:58.018602
- Title: FaceGuard: Proactive Deepfake Detection
- Title(参考訳): FaceGuard: アクティブなディープフェイク検出
- Authors: Yuankun Yang, Chenyue Liang, Hongyu He, Xiaoyu Cao, Neil Zhenqiang
Gong
- Abstract要約: プロアクティブなディープフェイク検出フレームワークであるFaceGuardを提案する。
FaceGuardは、実際の顔画像に透かしを埋め込んだ後、ソーシャルメディアに掲載する。
抽出された透かしが個人の真実とうまく一致しない場合、顔画像は偽物であると予測する。
- 参考スコア(独自算出の注目度): 15.938409771740643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing deepfake-detection methods focus on passive detection, i.e., they
detect fake face images via exploiting the artifacts produced during deepfake
manipulation. A key limitation of passive detection is that it cannot detect
fake faces that are generated by new deepfake generation methods. In this work,
we propose FaceGuard, a proactive deepfake-detection framework. FaceGuard
embeds a watermark into a real face image before it is published on social
media. Given a face image that claims to be an individual (e.g., Nicolas Cage),
FaceGuard extracts a watermark from it and predicts the face image to be fake
if the extracted watermark does not match well with the individual's ground
truth one. A key component of FaceGuard is a new deep-learning-based
watermarking method, which is 1) robust to normal image post-processing such as
JPEG compression, Gaussian blurring, cropping, and resizing, but 2) fragile to
deepfake manipulation. Our evaluation on multiple datasets shows that FaceGuard
can detect deepfakes accurately and outperforms existing methods.
- Abstract(参考訳): 既存のディープフェイク検出法は受動的検出に重点を置いており、ディープフェイク操作時に生成されたアーティファクトを利用して偽の顔画像を検出する。
パッシブ検出の重要な制限は、新しいディープフェイク生成法によって生成される偽の顔を検出することができないことである。
本研究では,能動的深度検出フレームワークFaceGuardを提案する。
FaceGuardは、実際の顔画像に透かしを埋め込んだ後、ソーシャルメディアに掲載する。
個人であると主張する顔画像(例えばニコラス・ケージ)が与えられたとき、FaceGuardはそれから透かしを抽出し、抽出した透かしが個人の基礎的真実とうまく一致しない場合、顔画像が偽物であると予測する。
FaceGuardの重要なコンポーネントは、新しいディープラーニングベースの透かし方式である。
1)jpeg圧縮,gaussian bluring,cropping,resizingなどの通常の画像後処理に頑健であるが,
2) 深層加工に脆弱である。
複数のデータセットに対する評価は、FaceGuardがディープフェイクを正確に検出でき、既存の手法より優れていることを示している。
関連論文リスト
- Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection [58.1263969438364]
本稿では,3次元対向顔視によるディープフェイク検出器に対する最初の試みとして,対向頭部旋回(AdvHeat)を提案する。
実験では、現実的なブラックボックスシナリオにおいて、様々な検出器のAdvHeatに対する脆弱性を検証する。
さらなる分析により、AdvHeatは、クロス検出器転送性と防御に対する堅牢性の両方に対する従来の攻撃よりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-09-03T07:01:34Z) - SepMark: Deep Separable Watermarking for Unified Source Tracing and
Deepfake Detection [15.54035395750232]
悪意あるディープフェイクは、本物と偽造された顔の区別に関して激しい対立を引き起こしている。
我々はソーストレースとディープフェイク検出のための統合フレームワークを提供するSepMarkを提案する。
論文 参考訳(メタデータ) (2023-05-10T17:15:09Z) - Docmarking: Real-Time Screen-Cam Robust Document Image Watermarking [97.77394585669562]
提案されたアプローチは、そもそもリークを防ぐのではなく、リークのソースを決定することを目的としている。
メソッドは、透かしを半透明画像と識別するユニークな透かしをスクリーンに印加することで機能する。
透かし画像は静止しており、常に画面上に留まっているので、撮影したすべての写真に透かしが表示される。
論文 参考訳(メタデータ) (2023-04-25T09:32:11Z) - Mover: Mask and Recovery based Facial Part Consistency Aware Method for
Deepfake Video Detection [33.29744034340998]
Moverは新しいDeepfake検出モデルで、不特定の顔の部分の不整合を悪用する。
本稿では,事前学習されたエンコーダとマスク付きオートエンコーダを利用するデュアルネットワークを用いた新しいモデルを提案する。
我々の標準ベンチマーク実験は、Moverが極めて効果的であることを示している。
論文 参考訳(メタデータ) (2023-03-03T06:57:22Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - FaceSigns: Semi-Fragile Neural Watermarks for Media Authentication and
Countering Deepfakes [25.277040616599336]
近年のリアルな画像合成技術やビデオ合成技術の発展により、ディープフェイクやメディアの操作は目覚ましい脅威になりつつある。
本稿では,画像画素に埋め込まれた見えない秘密メッセージを検証することによってメディア認証を可能にする,深層学習に基づく半フレギール透かし手法を提案する。
論文 参考訳(メタデータ) (2022-04-05T03:29:30Z) - Deepfake Detection for Facial Images with Facemasks [17.238556058316412]
フェイスマスクを用いたディープフェイクにおける最先端のディープフェイク検出モデルの性能を徹底的に評価した。
テマズクディープフェイク検出:顔パタンカードフェイスクロップの2つの手法を提案する。
論文 参考訳(メタデータ) (2022-02-23T09:01:27Z) - Understanding the Security of Deepfake Detection [23.118012417901078]
本研究では,最先端のディープフェイク検出手法の対向的設定における安全性について検討する。
FaceForensics++やFacebook Deepfake Detection Challengeなど、大規模な公開ディープフェイクデータソースを2つ使用しています。
本研究は, 対戦環境におけるディープフェイク検出手法のセキュリティ上の制約を明らかにした。
論文 参考訳(メタデータ) (2021-07-05T14:18:21Z) - CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes [74.18502861399591]
ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらしている。
本稿では,深層圏モデルに対する普遍的敵攻撃法を提案し,CMUA-Watermark(CMUA-Watermark)を作成した。
実験の結果,提案したCMUA-Watermarkはディープフェイクモデルによって生成された偽の顔画像を効果的に歪めることができることがわかった。
論文 参考訳(メタデータ) (2021-05-23T07:28:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。