論文の概要: SepMark: Deep Separable Watermarking for Unified Source Tracing and
Deepfake Detection
- arxiv url: http://arxiv.org/abs/2305.06321v1
- Date: Wed, 10 May 2023 17:15:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 12:06:27.711847
- Title: SepMark: Deep Separable Watermarking for Unified Source Tracing and
Deepfake Detection
- Title(参考訳): sepmark: ソーストレースとディープフェイク検出のための深い分離可能なウォーターマーキング
- Authors: Xiaoshuai Wu, Xin Liao, Bo Ou
- Abstract要約: 悪意あるディープフェイクは、本物と偽造された顔の区別に関して激しい対立を引き起こしている。
我々はソーストレースとディープフェイク検出のための統合フレームワークを提供するSepMarkを提案する。
- 参考スコア(独自算出の注目度): 15.54035395750232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Malicious Deepfakes have led to a sharp conflict over distinguishing between
genuine and forged faces. Although many countermeasures have been developed to
detect Deepfakes ex-post, undoubtedly, passive forensics has not considered any
preventive measures for the pristine face before foreseeable manipulations. To
complete this forensics ecosystem, we thus put forward the proactive solution
dubbed SepMark, which provides a unified framework for source tracing and
Deepfake detection. SepMark originates from encoder-decoder-based deep
watermarking but with two separable decoders. For the first time the deep
separable watermarking, SepMark brings a new paradigm to the established study
of deep watermarking, where a single encoder embeds one watermark elegantly,
while two decoders can extract the watermark separately at different levels of
robustness. The robust decoder termed Tracer that resists various distortions
may have an overly high level of robustness, allowing the watermark to survive
both before and after Deepfake. The semi-robust one termed Detector is
selectively sensitive to malicious distortions, making the watermark disappear
after Deepfake. Only SepMark comprising of Tracer and Detector can reliably
trace the trusted source of the marked face and detect whether it has been
altered since being marked; neither of the two alone can achieve this.
Extensive experiments demonstrate the effectiveness of the proposed SepMark on
typical Deepfakes, including face swapping, expression reenactment, and
attribute editing.
- Abstract(参考訳): 悪質なディープフェイクは、本物の顔と偽顔の区別をめぐって激しい紛争を引き起こした。
ディープフェイクスの元ポストを検出するために多くの対策が開発されているが、明らかに受動的法医学は、予見可能な操作の前に原始的な顔に対する予防措置を考慮していない。
そこで我々はSepMarkという,ソーストレースとDeepfake検出のための統合されたフレームワークを提供する,プロアクティブなソリューションを提案しました。
SepMarkはエンコーダデコーダベースのディープウォーターマーキングに由来するが、2つの分離可能なデコーダを持つ。
1つのエンコーダが1つのウォーターマークをエレガントに埋め込み、2つのデコーダが異なるレベルのロバスト性で別々のウォーターマークを抽出することができる。
強靭なデコーダは、様々な歪みに抵抗するトレーサと呼ばれ、非常に高い強靭性を持ち、ディープフェイクの前と後の両方で透かしが生き残ることができる。
セミロバスト式1項検出器は悪質な歪みに選択的に敏感であり、ディープフェイク後に透かしが消える。
トレーサと検出器からなるsepmarkのみが、マークされた顔の信頼できるソースを確実に追跡し、マークされてから変化したかどうかを検出することができる。
広範な実験により、顔交換、表情再現、属性編集など、一般的なディープフェイクにおけるsepmarkの有効性が実証された。
関連論文リスト
- LampMark: Proactive Deepfake Detection via Training-Free Landmark Perceptual Watermarks [7.965986856780787]
本稿では,LampMarkを略して,新しい学習自由なランドマークとして紹介する。
まず、Deepfake操作の構造に敏感な特性を分析し、セキュアで機密性の高い変換パイプラインを考案する。
本稿では,保護対象画像に関する透かしを認識不能に埋め込み,抽出するエンド・ツー・エンドの透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-26T08:24:56Z) - An undetectable watermark for generative image models [65.31658824274894]
生成画像モデルに対する検出不能な最初の透かし方式を提案する。
特に、検出不能な透かしは、効率的に計算可能なメートル法で画質を劣化させることはない。
提案手法は,擬似乱数誤り訂正符号を用いて拡散モデルの初期潜時間を選択する。
論文 参考訳(メタデータ) (2024-10-09T18:33:06Z) - Are Watermarks Bugs for Deepfake Detectors? Rethinking Proactive Forensics [14.596038695008403]
現在の透かしモデルは、もともと本物の画像のために考案されたもので、偽造画像に直接適用した場合、デプロイされたディープフェイク検出器に害を与える可能性があると我々は主張する。
本稿では,能動的法医学を代表としてAdvMarkを提案し,受動検出器の対角的脆弱性を有効に活用する。
論文 参考訳(メタデータ) (2024-04-27T11:20:49Z) - Latent Watermark: Inject and Detect Watermarks in Latent Diffusion Space [7.082806239644562]
既存の手法は、画質と透かしの堅牢性のジレンマに直面している。
画像品質の優れた透かしは通常、ぼやけやJPEG圧縮のような攻撃に対して弱い堅牢性を持つ。
本稿では,潜伏拡散空間内の透かしを注入し,検出する潜伏透かしを提案する。
論文 参考訳(メタデータ) (2024-03-30T03:19:50Z) - Robust Identity Perceptual Watermark Against Deepfake Face Swapping [8.276177968730549]
ディープフェイク・フェイススワップは、ディープジェネレーティブ・モデルの急速な開発で重要なプライバシー問題を引き起こしている。
本稿では,Deepfakeの顔スワップに対する検出とソーストレースを同時に行う,最初の堅牢なアイデンティティ認識型透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-02T16:04:32Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - An Unforgeable Publicly Verifiable Watermark for Large Language Models [84.2805275589553]
現在の透かし検出アルゴリズムは、透かし生成プロセスで使用される秘密鍵を必要としており、公開検出中にセキュリティ違反や偽造の影響を受ける。
両段階で同じキーを使用するのではなく、2つの異なるニューラルネットワークを用いて透かしの生成と検出を行う。
論文 参考訳(メタデータ) (2023-07-30T13:43:27Z) - On the Reliability of Watermarks for Large Language Models [95.87476978352659]
本研究では,人間による書き直し後の透かしテキストの堅牢性,非透かしLDMによる言い換え,あるいはより長い手書き文書への混在性について検討する。
人や機械の言い回しをしても、透かしは検出可能である。
また、大きな文書に埋め込まれた透かし付きテキストの短いスパンに敏感な新しい検出手法についても検討する。
論文 参考訳(メタデータ) (2023-06-07T17:58:48Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - Split then Refine: Stacked Attention-guided ResUNets for Blind Single
Image Visible Watermark Removal [69.92767260794628]
従来の透かし除去方法は,ユーザから透かしの位置を取得したり,マルチタスクネットワークをトレーニングして,背景を無差別に復元する必要があった。
本稿では,注目誘導型ResUNetsを積み重ねた新しい2段階フレームワークを提案し,検出・除去・精錬の過程をシミュレートする。
様々な条件下で4つの異なるデータセット上でアルゴリズムを広範囲に評価し,その手法が他の最先端手法をはるかに上回っていることを示す実験を行った。
論文 参考訳(メタデータ) (2020-12-13T09:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。