論文の概要: FaceGuard: Proactive Deepfake Detection
- arxiv url: http://arxiv.org/abs/2109.05673v1
- Date: Mon, 13 Sep 2021 02:36:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:53:58.018602
- Title: FaceGuard: Proactive Deepfake Detection
- Title(参考訳): FaceGuard: アクティブなディープフェイク検出
- Authors: Yuankun Yang, Chenyue Liang, Hongyu He, Xiaoyu Cao, Neil Zhenqiang
Gong
- Abstract要約: プロアクティブなディープフェイク検出フレームワークであるFaceGuardを提案する。
FaceGuardは、実際の顔画像に透かしを埋め込んだ後、ソーシャルメディアに掲載する。
抽出された透かしが個人の真実とうまく一致しない場合、顔画像は偽物であると予測する。
- 参考スコア(独自算出の注目度): 15.938409771740643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing deepfake-detection methods focus on passive detection, i.e., they
detect fake face images via exploiting the artifacts produced during deepfake
manipulation. A key limitation of passive detection is that it cannot detect
fake faces that are generated by new deepfake generation methods. In this work,
we propose FaceGuard, a proactive deepfake-detection framework. FaceGuard
embeds a watermark into a real face image before it is published on social
media. Given a face image that claims to be an individual (e.g., Nicolas Cage),
FaceGuard extracts a watermark from it and predicts the face image to be fake
if the extracted watermark does not match well with the individual's ground
truth one. A key component of FaceGuard is a new deep-learning-based
watermarking method, which is 1) robust to normal image post-processing such as
JPEG compression, Gaussian blurring, cropping, and resizing, but 2) fragile to
deepfake manipulation. Our evaluation on multiple datasets shows that FaceGuard
can detect deepfakes accurately and outperforms existing methods.
- Abstract(参考訳): 既存のディープフェイク検出法は受動的検出に重点を置いており、ディープフェイク操作時に生成されたアーティファクトを利用して偽の顔画像を検出する。
パッシブ検出の重要な制限は、新しいディープフェイク生成法によって生成される偽の顔を検出することができないことである。
本研究では,能動的深度検出フレームワークFaceGuardを提案する。
FaceGuardは、実際の顔画像に透かしを埋め込んだ後、ソーシャルメディアに掲載する。
個人であると主張する顔画像(例えばニコラス・ケージ)が与えられたとき、FaceGuardはそれから透かしを抽出し、抽出した透かしが個人の基礎的真実とうまく一致しない場合、顔画像が偽物であると予測する。
FaceGuardの重要なコンポーネントは、新しいディープラーニングベースの透かし方式である。
1)jpeg圧縮,gaussian bluring,cropping,resizingなどの通常の画像後処理に頑健であるが,
2) 深層加工に脆弱である。
複数のデータセットに対する評価は、FaceGuardがディープフェイクを正確に検出でき、既存の手法より優れていることを示している。
関連論文リスト
- LampMark: Proactive Deepfake Detection via Training-Free Landmark Perceptual Watermarks [7.965986856780787]
本稿では,LampMarkを略して,新しい学習自由なランドマークとして紹介する。
まず、Deepfake操作の構造に敏感な特性を分析し、セキュアで機密性の高い変換パイプラインを考案する。
本稿では,保護対象画像に関する透かしを認識不能に埋め込み,抽出するエンド・ツー・エンドの透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-26T08:24:56Z) - Facial Features Matter: a Dynamic Watermark based Proactive Deepfake Detection Approach [11.51480331713537]
本稿では,顔特徴に基づく能動的深度検出法(FaceProtect)を提案する。
本稿では,128次元顔特徴ベクトルを入力として利用するGODWGM(One-way Dynamic Watermark Generating Mechanism)を提案する。
また, ステガノグラフィとGODWGMを併用し, ベンチマーク透かしの同時送信を可能にするWatermark-based Verification Strategy (WVS)を提案する。
論文 参考訳(メタデータ) (2024-11-22T08:49:08Z) - Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Docmarking: Real-Time Screen-Cam Robust Document Image Watermarking [97.77394585669562]
提案されたアプローチは、そもそもリークを防ぐのではなく、リークのソースを決定することを目的としている。
メソッドは、透かしを半透明画像と識別するユニークな透かしをスクリーンに印加することで機能する。
透かし画像は静止しており、常に画面上に留まっているので、撮影したすべての写真に透かしが表示される。
論文 参考訳(メタデータ) (2023-04-25T09:32:11Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - FaceSigns: Semi-Fragile Neural Watermarks for Media Authentication and
Countering Deepfakes [25.277040616599336]
近年のリアルな画像合成技術やビデオ合成技術の発展により、ディープフェイクやメディアの操作は目覚ましい脅威になりつつある。
本稿では,画像画素に埋め込まれた見えない秘密メッセージを検証することによってメディア認証を可能にする,深層学習に基づく半フレギール透かし手法を提案する。
論文 参考訳(メタデータ) (2022-04-05T03:29:30Z) - Deepfake Detection for Facial Images with Facemasks [17.238556058316412]
フェイスマスクを用いたディープフェイクにおける最先端のディープフェイク検出モデルの性能を徹底的に評価した。
テマズクディープフェイク検出:顔パタンカードフェイスクロップの2つの手法を提案する。
論文 参考訳(メタデータ) (2022-02-23T09:01:27Z) - Understanding the Security of Deepfake Detection [23.118012417901078]
本研究では,最先端のディープフェイク検出手法の対向的設定における安全性について検討する。
FaceForensics++やFacebook Deepfake Detection Challengeなど、大規模な公開ディープフェイクデータソースを2つ使用しています。
本研究は, 対戦環境におけるディープフェイク検出手法のセキュリティ上の制約を明らかにした。
論文 参考訳(メタデータ) (2021-07-05T14:18:21Z) - CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes [74.18502861399591]
ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらしている。
本稿では,深層圏モデルに対する普遍的敵攻撃法を提案し,CMUA-Watermark(CMUA-Watermark)を作成した。
実験の結果,提案したCMUA-Watermarkはディープフェイクモデルによって生成された偽の顔画像を効果的に歪めることができることがわかった。
論文 参考訳(メタデータ) (2021-05-23T07:28:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。