論文の概要: Shallow Diffuse: Robust and Invisible Watermarking through Low-Dimensional Subspaces in Diffusion Models
- arxiv url: http://arxiv.org/abs/2410.21088v2
- Date: Tue, 03 Jun 2025 05:07:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 01:42:08.919948
- Title: Shallow Diffuse: Robust and Invisible Watermarking through Low-Dimensional Subspaces in Diffusion Models
- Title(参考訳): 浅拡散:拡散モデルにおける低次元部分空間によるロバストで見えない透かし
- Authors: Wenda Li, Huijie Zhang, Qing Qu,
- Abstract要約: 拡散モデル出力にロバストで見えない透かしを埋め込む新しい透かし技術であるShallow Diffuseを導入する。
我々の理論的および経験的分析により,浅度拡散はデータ生成の一貫性と透かしの検出可能性を大幅に向上させることが示された。
- 参考スコア(独自算出の注目度): 10.726987194250116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread use of AI-generated content from diffusion models has raised significant concerns regarding misinformation and copyright infringement. Watermarking is a crucial technique for identifying these AI-generated images and preventing their misuse. In this paper, we introduce Shallow Diffuse, a new watermarking technique that embeds robust and invisible watermarks into diffusion model outputs. Unlike existing approaches that integrate watermarking throughout the entire diffusion sampling process, Shallow Diffuse decouples these steps by leveraging the presence of a low-dimensional subspace in the image generation process. This method ensures that a substantial portion of the watermark lies in the null space of this subspace, effectively separating it from the image generation process. Our theoretical and empirical analyses show that this decoupling strategy greatly enhances the consistency of data generation and the detectability of the watermark. Extensive experiments further validate that our Shallow Diffuse outperforms existing watermarking methods in terms of robustness and consistency. The codes will be released at https://github.com/liwd190019/Shallow-Diffuse.
- Abstract(参考訳): 拡散モデルからのAI生成コンテンツの普及は、誤情報や著作権侵害に関する重大な懸念を引き起こしている。
ウォーターマーキングは、これらのAI生成画像を特定し、その誤用を防ぐための重要なテクニックである。
本稿では,拡散モデル出力に頑健で見えない透かしを埋め込む新しい透かし手法であるShallow Diffuseを紹介する。
拡散サンプリングプロセス全体を通して透かしを統合する既存のアプローチとは異なり、Shallow Diffuseは画像生成プロセスにおける低次元部分空間の存在を利用してこれらのステップを分離する。
この方法は、透かしのかなりの部分がこの部分空間のヌル空間にあることを保証し、画像生成プロセスから効果的に分離する。
この分離戦略は,データ生成の一貫性と透かしの検出可能性を大幅に向上させることを示す。
過度な実験により、我々は既存の透かし法よりも頑健さと一貫性が優れていることが確認された。
コードはhttps://github.com/liwd190019/Shallow-Diffuse.comで公開される。
関連論文リスト
- Vanishing Watermarks: Diffusion-Based Image Editing Undermines Robust Invisible Watermarking [3.583615559438432]
強力な拡散ベースの画像生成と編集技術は、堅牢な透かし方式に新たな脅威をもたらす。
従来の歪みに耐えられるように設計された透かしであっても,拡散モデルによりロバストな透かしを効果的に消し去ることができることを示す。
誘導拡散に基づく攻撃は, 発生時に埋め込まれた透かし信号に的を絞ったもので, 透かし検出性を著しく低下させる。
論文 参考訳(メタデータ) (2026-02-24T08:34:48Z) - OSI: One-step Inversion Excels in Extracting Diffusion Watermarks [56.210696479553945]
ガウスシェーディングスタイルの透かしを抽出する手法であるワンステップインバージョン(OSI)を提案する。
OSIは、透かし抽出を学習可能な記号分類問題として再構成し、初期雑音の正確な回帰を不要にする。
我々のOSIは,20倍高速で,抽出精度が向上し,透かしペイロード容量が2倍になる多段拡散インバージョン法を著しく上回っている。
論文 参考訳(メタデータ) (2026-02-10T07:43:16Z) - On the Information-Theoretic Fragility of Robust Watermarking under Diffusion Editing [3.6210754412846327]
強力な拡散ベースの画像生成と編集技術は、堅牢なウォーターマーキングスキームに新たな脅威をもたらす。
生成中の透かし信号を明示的にターゲットし,消去する誘導拡散攻撃アルゴリズムを提案する。
我々は,近年の深層学習に基づく透かし手法に対するアプローチを評価し,攻撃後のほぼゼロに近い透かし回復率を示す。
論文 参考訳(メタデータ) (2025-11-14T03:41:24Z) - Diffusion-Based Image Editing: An Unforeseen Adversary to Robust Invisible Watermarks [4.138397555991069]
強力な拡散ベースの画像生成と編集モデルは、埋め込みの透かしを不注意に取り除いたり歪んだりすることができる。
本稿では,拡散に基づく画像編集が,最先端のロバストな透かしを効果的に破壊できることを示す理論的,実証的な分析を行う。
画像から透かしを消去するために生成画像再生を用いた拡散誘導攻撃を提案する。
論文 参考訳(メタデータ) (2025-11-05T16:20:29Z) - Diffusion-Based Image Editing for Breaking Robust Watermarks [4.273350357872755]
強力な拡散ベースの画像生成と編集技術は、堅牢なウォーターマーキングスキームに新たな脅威をもたらす。
拡散駆動型画像再生プロセスでは,画像内容の保存中に埋め込み透かしを消去できることを示す。
生成中の透かし信号に特異的な誘導拡散攻撃を導入し,透かし検出性を著しく低下させた。
論文 参考訳(メタデータ) (2025-10-07T14:34:42Z) - DiffMark: Diffusion-based Robust Watermark Against Deepfakes [21.205463800125056]
ディープフェイクは、悪意のある顔操作を通じて、重大なセキュリティとプライバシーの脅威を引き起こす。
既存の透かし法はディープフェイク操作に対して十分な堅牢性を欠いていることが多い。
本稿では拡散モデルに基づく新しいロバストな透かしフレームワークDiffMarkを提案する。
論文 参考訳(メタデータ) (2025-07-02T07:29:33Z) - Optimization-Free Universal Watermark Forgery with Regenerative Diffusion Models [50.73220224678009]
ウォーターマーキングは、人工知能モデルによって生成された合成画像の起源を検証するために使用できる。
近年の研究では, 対象画像から表層画像への透かしを, 対角的手法を用いてフォージできることが示されている。
本稿では,最適化フリーで普遍的な透かし偽造のリスクが大きいことを明らかにする。
我々のアプローチは攻撃範囲を大きく広げ、現在の透かし技術の安全性により大きな課題をもたらす。
論文 参考訳(メタデータ) (2025-06-06T12:08:02Z) - Bridging Knowledge Gap Between Image Inpainting and Large-Area Visible Watermark Removal [57.84348166457113]
本稿では,事前学習した画像の塗装モデルの表現能力を活用する新しい特徴適応フレームワークを提案する。
本手法は, 透かしの残像の残像を塗布バックボーンモデルに流し込むことにより, 透かしと透かし除去の知識ギャップを埋めるものである。
高品質な透かしマスクへの依存を緩和するために,粗い透かしマスクを用いて推論プロセスを導出する新たな訓練パラダイムを導入する。
論文 参考訳(メタデータ) (2025-04-07T02:37:14Z) - Image Watermarking of Generative Diffusion Models [42.982489491857145]
拡散モデル自体に透かしの特徴を埋め込む透かし手法を提案する。
本手法は,エンド・ツー・エンド・エンド・プロセスで学習した生成モデルに対して,ペア型透かし抽出器の訓練を可能にする。
高精度な透かし埋め込み/検出を実証し,本手法に埋め込まれた異なる透かしを区別し,生成モデルの区別を行うことが可能であることを示す。
論文 参考訳(メタデータ) (2025-02-12T09:00:48Z) - Exploiting Watermark-Based Defense Mechanisms in Text-to-Image Diffusion Models for Unauthorized Data Usage [14.985938758090763]
安定拡散のようなテキストと画像の拡散モデルは、高品質な画像を生成するのに例外的な可能性を示している。
近年の研究では、これらのモデルのトレーニングに不正データを使用することが懸念されており、知的財産権侵害やプライバシー侵害につながる可能性がある。
本稿では,テキスト・ツー・イメージ・モデルに適用された様々な透かしに基づく保護手法のロバスト性について検討する。
論文 参考訳(メタデータ) (2024-11-22T22:28:19Z) - JIGMARK: A Black-Box Approach for Enhancing Image Watermarks against Diffusion Model Edits [76.25962336540226]
JIGMARKは、コントラスト学習による堅牢性を高める、第一級の透かし技術である。
本評価の結果,JIGMARKは既存の透かし法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-06T03:31:41Z) - DiffuseTrace: A Transparent and Flexible Watermarking Scheme for Latent Diffusion Model [15.982765272033058]
潜在拡散モデル(LDM)は幅広い応用を可能にするが、違法利用に関する倫理的懸念を提起する。
DiffuseTraceと呼ばれる新しいテクニックは、すべての生成された画像に見えない透かしを埋め込んで、将来的な検出を意味づける。
論文 参考訳(メタデータ) (2024-05-04T15:32:57Z) - Gaussian Shading: Provable Performance-Lossless Image Watermarking for Diffusion Models [71.13610023354967]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,性能ロスレスかつトレーニング不要な拡散モデル透かし手法を提案する。
論文 参考訳(メタデータ) (2024-04-07T13:30:10Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - FT-Shield: A Watermark Against Unauthorized Fine-tuning in Text-to-Image Diffusion Models [64.89896692649589]
テキスト・画像拡散モデルの微調整に適した透かしシステムであるFT-Shieldを提案する。
FT-Shieldは新しい透かしの生成と検出戦略を設計することで著作権保護の課題に対処する。
論文 参考訳(メタデータ) (2023-10-03T19:50:08Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - Watermarking Images in Self-Supervised Latent Spaces [75.99287942537138]
我々は,自己教師型アプローチに照らして,事前学習した深層ネットワークに基づく透かし手法を再検討する。
我々は、マーク時間におけるデータの増大を利用して、マークとバイナリのメッセージをその潜在空間に埋め込む方法を提案する。
論文 参考訳(メタデータ) (2021-12-17T15:52:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。