論文の概要: FaceSigns: Semi-Fragile Neural Watermarks for Media Authentication and
Countering Deepfakes
- arxiv url: http://arxiv.org/abs/2204.01960v1
- Date: Tue, 5 Apr 2022 03:29:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 13:12:11.876192
- Title: FaceSigns: Semi-Fragile Neural Watermarks for Media Authentication and
Countering Deepfakes
- Title(参考訳): facesigns:メディア認証とディープフェイク対策のための半脆弱なニューラルウォーターマーク
- Authors: Paarth Neekhara, Shehzeen Hussain, Xinqiao Zhang, Ke Huang, Julian
McAuley, Farinaz Koushanfar
- Abstract要約: 近年のリアルな画像合成技術やビデオ合成技術の発展により、ディープフェイクやメディアの操作は目覚ましい脅威になりつつある。
本稿では,画像画素に埋め込まれた見えない秘密メッセージを検証することによってメディア認証を可能にする,深層学習に基づく半フレギール透かし手法を提案する。
- 参考スコア(独自算出の注目度): 25.277040616599336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfakes and manipulated media are becoming a prominent threat due to the
recent advances in realistic image and video synthesis techniques. There have
been several attempts at combating Deepfakes using machine learning
classifiers. However, such classifiers do not generalize well to black-box
image synthesis techniques and have been shown to be vulnerable to adversarial
examples. To address these challenges, we introduce a deep learning based
semi-fragile watermarking technique that allows media authentication by
verifying an invisible secret message embedded in the image pixels. Instead of
identifying and detecting fake media using visual artifacts, we propose to
proactively embed a semi-fragile watermark into a real image so that we can
prove its authenticity when needed. Our watermarking framework is designed to
be fragile to facial manipulations or tampering while being robust to benign
image-processing operations such as image compression, scaling, saturation,
contrast adjustments etc. This allows images shared over the internet to retain
the verifiable watermark as long as face-swapping or any other Deepfake
modification technique is not applied. We demonstrate that FaceSigns can embed
a 128 bit secret as an imperceptible image watermark that can be recovered with
a high bit recovery accuracy at several compression levels, while being
non-recoverable when unseen Deepfake manipulations are applied. For a set of
unseen benign and Deepfake manipulations studied in our work, FaceSigns can
reliably detect manipulated content with an AUC score of 0.996 which is
significantly higher than prior image watermarking and steganography
techniques.
- Abstract(参考訳): 近年のリアルな画像合成技術やビデオ合成技術の発展により、ディープフェイクやメディアの操作は目覚ましい脅威になりつつある。
機械学習分類器を使用してDeepfakesと戦う試みはいくつかある。
しかし、このような分類器はブラックボックス画像合成技術にはあまり一般化せず、逆の例に弱いことが示されている。
これらの課題に対処するために,画像画素に埋め込まれた見えない秘密メッセージを検証することによってメディア認証を可能にする,深層学習に基づく半脆弱な透かし技術を導入する。
視覚的アーティファクトを用いて偽メディアを識別・検出する代わりに、準フレジブルな透かしを実画像に積極的に埋め込み、必要に応じてその真正性を証明することを提案する。
当社の透かしフレームワークは,画像圧縮やスケーリング,飽和度,コントラスト調整など,良質な画像処理操作に堅牢であると同時に,顔操作や改ざんに脆弱なように設計されている。
これにより、顔スワッピングや他のディープフェイク修正技術が適用されない限り、インターネット上で共有された画像は検証可能な透かしを保持することができる。
画像の透かしとして128ビットのシークレットを埋め込むことで、複数の圧縮レベルで高いビット回復精度で復元できるが、目に見えないディープフェイク操作を施すと回復できないことを実証する。
本研究で研究されている一連の目立たない良性およびディープフェイク操作について,aucスコア0.996の操作内容を確実に検出できる。
関連論文リスト
- Social Media Authentication and Combating Deepfakes using Semi-fragile Invisible Image Watermarking [6.246098300155482]
本稿では,メディア認証のために,見えない秘密メッセージを実画像に埋め込む半フレジブルな画像透かし手法を提案する。
提案するフレームワークは,顔の操作や改ざんに対して脆弱であると同時に,画像処理操作や透かし除去攻撃に対して頑健であるように設計されている。
論文 参考訳(メタデータ) (2024-10-02T18:05:03Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes [74.18502861399591]
ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらしている。
本稿では,深層圏モデルに対する普遍的敵攻撃法を提案し,CMUA-Watermark(CMUA-Watermark)を作成した。
実験の結果,提案したCMUA-Watermarkはディープフェイクモデルによって生成された偽の顔画像を効果的に歪めることができることがわかった。
論文 参考訳(メタデータ) (2021-05-23T07:28:36Z) - Watermark Faker: Towards Forgery of Digital Image Watermarking [10.14145437847397]
我々は, 生成的逆学習を用いて, デジタル画像ウォーターマーク・フェイカーの開発を初めて試みる。
提案手法は,空間領域と周波数領域の両方において,デジタル画像透かしを効果的にクラックできることを示す。
論文 参考訳(メタデータ) (2021-03-23T12:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。