論文の概要: Are Watermarks Bugs for Deepfake Detectors? Rethinking Proactive Forensics
- arxiv url: http://arxiv.org/abs/2404.17867v1
- Date: Sat, 27 Apr 2024 11:20:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 18:51:42.808566
- Title: Are Watermarks Bugs for Deepfake Detectors? Rethinking Proactive Forensics
- Title(参考訳): ディープフェイク検知器のウォーターマークはバグか?
- Authors: Xiaoshuai Wu, Xin Liao, Bo Ou, Yuling Liu, Zheng Qin,
- Abstract要約: 現在の透かしモデルは、もともと本物の画像のために考案されたもので、偽造画像に直接適用した場合、デプロイされたディープフェイク検出器に害を与える可能性があると我々は主張する。
本稿では,能動的法医学を代表としてAdvMarkを提案し,受動検出器の対角的脆弱性を有効に活用する。
- 参考スコア(独自算出の注目度): 14.596038695008403
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI-generated content has accelerated the topic of media synthesis, particularly Deepfake, which can manipulate our portraits for positive or malicious purposes. Before releasing these threatening face images, one promising forensics solution is the injection of robust watermarks to track their own provenance. However, we argue that current watermarking models, originally devised for genuine images, may harm the deployed Deepfake detectors when directly applied to forged images, since the watermarks are prone to overlap with the forgery signals used for detection. To bridge this gap, we thus propose AdvMark, on behalf of proactive forensics, to exploit the adversarial vulnerability of passive detectors for good. Specifically, AdvMark serves as a plug-and-play procedure for fine-tuning any robust watermarking into adversarial watermarking, to enhance the forensic detectability of watermarked images; meanwhile, the watermarks can still be extracted for provenance tracking. Extensive experiments demonstrate the effectiveness of the proposed AdvMark, leveraging robust watermarking to fool Deepfake detectors, which can help improve the accuracy of downstream Deepfake detection without tuning the in-the-wild detectors. We believe this work will shed some light on the harmless proactive forensics against Deepfake.
- Abstract(参考訳): AIが生成したコンテンツは、メディア合成のトピック、特にDeepfakeを加速している。
これらの脅迫的な顔画像をリリースする前に、ある有望な法医学的解決策は、自身の証明を追跡するために頑丈な透かしを注入することである。
しかし,従来の透かしモデルでは,偽造画像と重なりやすいため,従来の透かしモデルでは直接偽造画像に適用すると,Deepfake検出器に悪影響を及ぼす可能性がある。
そこで我々は,このギャップを埋めるために,能動法医学を代表としてAdvMarkを提案し,受動検出器の対角的脆弱性を有効に活用する。
具体的には、AdvMarkは、逆透かしに頑健な透かしを微調整し、透かし画像の法医学的検出性を高めるためのプラグアンドプレイ手順として機能する。
広汎な実験により提案したAdvMarkの有効性が示され、堅牢な透かしを利用して、下流のディープフェイク検出の精度を向上させることができる。
私たちはこの研究がディープフェイクに対する無害な前向きな法医学に光を当てると信じています。
関連論文リスト
- LampMark: Proactive Deepfake Detection via Training-Free Landmark Perceptual Watermarks [7.965986856780787]
本稿では,LampMarkを略して,新しい学習自由なランドマークとして紹介する。
まず、Deepfake操作の構造に敏感な特性を分析し、セキュアで機密性の高い変換パイプラインを考案する。
本稿では,保護対象画像に関する透かしを認識不能に埋め込み,抽出するエンド・ツー・エンドの透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-26T08:24:56Z) - An undetectable watermark for generative image models [65.31658824274894]
生成画像モデルに対する検出不能な最初の透かし方式を提案する。
特に、検出不能な透かしは、効率的に計算可能なメートル法で画質を劣化させることはない。
提案手法は,擬似乱数誤り訂正符号を用いて拡散モデルの初期潜時間を選択する。
論文 参考訳(メタデータ) (2024-10-09T18:33:06Z) - Social Media Authentication and Combating Deepfakes using Semi-fragile Invisible Image Watermarking [6.246098300155482]
本稿では,メディア認証のために,見えない秘密メッセージを実画像に埋め込む半フレジブルな画像透かし手法を提案する。
提案するフレームワークは,顔の操作や改ざんに対して脆弱であると同時に,画像処理操作や透かし除去攻撃に対して頑健であるように設計されている。
論文 参考訳(メタデータ) (2024-10-02T18:05:03Z) - UnMarker: A Universal Attack on Defensive Image Watermarking [4.013156524547072]
防衛的な透かしに対する最初の実践的普遍的な攻撃であるUnMarkerを紹介します。
UnMarkerは検出器のフィードバックを必要とせず、透かしスキームや類似したモデルに関する非現実的な知識も必要とせず、先進的な復調パイプラインも必要としない。
SOTAスキームに対する評価は、UnMarkerの有効性を証明する。
論文 参考訳(メタデータ) (2024-05-14T07:05:18Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - On the Reliability of Watermarks for Large Language Models [95.87476978352659]
本研究では,人間による書き直し後の透かしテキストの堅牢性,非透かしLDMによる言い換え,あるいはより長い手書き文書への混在性について検討する。
人や機械の言い回しをしても、透かしは検出可能である。
また、大きな文書に埋め込まれた透かし付きテキストの短いスパンに敏感な新しい検出手法についても検討する。
論文 参考訳(メタデータ) (2023-06-07T17:58:48Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - SepMark: Deep Separable Watermarking for Unified Source Tracing and
Deepfake Detection [15.54035395750232]
悪意あるディープフェイクは、本物と偽造された顔の区別に関して激しい対立を引き起こしている。
我々はソーストレースとディープフェイク検出のための統合フレームワークを提供するSepMarkを提案する。
論文 参考訳(メタデータ) (2023-05-10T17:15:09Z) - Watermark Vaccine: Adversarial Attacks to Prevent Watermark Removal [69.10633149787252]
本稿では,対人機械学習による対人防御機構を提案する。
破壊性ウォーターマークワクチン(DWV)は、透かし除去ネットワークを通過した後、宿主のイメージと透かしを破滅させる。
Inerasable Watermark Vaccine(IWV)は、透かしが取り除かれないようにし、目立たないようにする別の方法だ。
論文 参考訳(メタデータ) (2022-07-17T13:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。