論文の概要: Beyond Invisibility: Learning Robust Visible Watermarks for Stronger Copyright Protection
- arxiv url: http://arxiv.org/abs/2506.02665v1
- Date: Tue, 03 Jun 2025 09:14:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.509537
- Title: Beyond Invisibility: Learning Robust Visible Watermarks for Stronger Copyright Protection
- Title(参考訳): 可視性を超えて: より強力な著作権保護のためのロバストな可視性透かしを学習する
- Authors: Tianci Liu, Tong Yang, Quan Zhang, Qi Lei,
- Abstract要約: 著作権のあるコンテンツは、AIが進歩するにつれて、不正使用のリスクが高まる。
近年の研究では、DreamBoothを通じて不正なパーソナライゼーションなど、特定のAI技術に対する著作権保護が開発されている。
本稿では,画像にテクスタイリッシュな透かしを埋め込むユニバーサルアプローチを提案する。
- 参考スコア(独自算出の注目度): 21.720886840742015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI advances, copyrighted content faces growing risk of unauthorized use, whether through model training or direct misuse. Building upon invisible adversarial perturbation, recent works developed copyright protections against specific AI techniques such as unauthorized personalization through DreamBooth that are misused. However, these methods offer only short-term security, as they require retraining whenever the underlying model architectures change. To establish long-term protection aiming at better robustness, we go beyond invisible perturbation, and propose a universal approach that embeds \textit{visible} watermarks that are \textit{hard-to-remove} into images. Grounded in a new probabilistic and inverse problem-based formulation, our framework maximizes the discrepancy between the \textit{optimal} reconstruction and the original content. We develop an effective and efficient approximation algorithm to circumvent a intractable bi-level optimization. Experimental results demonstrate superiority of our approach across diverse scenarios.
- Abstract(参考訳): AIが進歩するにつれて、著作権付きコンテンツは、モデルトレーニングや直接的な誤用によっても、不正使用のリスクが増大する。
近年の研究では、目に見えない敵の摂動に基づいて、DreamBoothを通じて不正なパーソナライゼーションなどの特定のAI技術に対する著作権保護が開発されている。
しかしながら、これらのメソッドは、基盤となるモデルアーキテクチャが変更されるたびに再トレーニングを必要とするため、短期的なセキュリティのみを提供する。
堅牢性向上を目的とした長期的保護を確立するため,我々は目に見えない摂動を超えて,画像に \textit{hard-to-remove} である \textit{visible} の透かしを埋め込む普遍的なアプローチを提案する。
新たな確率的および逆問題に基づく定式化を基礎として,本フレームワークは,<textit{optimal}再構成と元の内容との相違を最大化する。
我々は、難解な二段階最適化を回避するための効率的かつ効率的な近似アルゴリズムを開発した。
実験結果から,様々なシナリオにまたがるアプローチの優位性が示された。
関連論文リスト
- MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Safe-Sora: Safe Text-to-Video Generation via Graphical Watermarking [53.434260110195446]
Safe-Soraは、ビデオ生成プロセスに直接グラフィカルな透かしを直接埋め込む最初のフレームワークである。
適応型局所時間走査戦略を用いた3次元ウェーブレット変換拡張型Mambaアーキテクチャを開発した。
ビデオの品質、透かしの忠実さ、堅牢性の観点から、Safe-Soraは最先端のパフォーマンスを実証した。
論文 参考訳(メタデータ) (2025-05-19T03:31:31Z) - CopyJudge: Automated Copyright Infringement Identification and Mitigation in Text-to-Image Diffusion Models [58.58208005178676]
自動著作権侵害識別フレームワークであるCopyJudgeを提案する。
我々は,多LVLM議論を伴う抽象フィルタ比較テストフレームワークを用いて,侵害の可能性を評価する。
これらの判断に基づいて、一般のLVLMに基づく緩和戦略を導入する。
論文 参考訳(メタデータ) (2025-02-21T08:09:07Z) - OmniGuard: Hybrid Manipulation Localization via Augmented Versatile Deep Image Watermarking [20.662260046296897]
既存の多用途透かしアプローチは、タンパーの局所化精度と視覚的品質のトレードオフに悩まされている。
オムニガード(OmniGuard)は、能動的埋め込みと受動的、視覚的抽出を統合した新しい多目的透かし手法である。
コンテナ画像のPSNRは4.25dB、ノイズ条件ではF1スコアは20.7%、平均ビット精度は14.8%である。
論文 参考訳(メタデータ) (2024-12-02T15:38:44Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - Protect-Your-IP: Scalable Source-Tracing and Attribution against Personalized Generation [19.250673262185767]
画像著作権のソーストレーシングと属性の統一的なアプローチを提案する。
本稿では,プロアクティブ戦略とパッシブ戦略を融合した革新的な透かし属性法を提案する。
オンラインで公開されている様々なセレブの肖像画シリーズを用いて実験を行った。
論文 参考訳(メタデータ) (2024-05-26T15:14:54Z) - Reliable Model Watermarking: Defending Against Theft without Compromising on Evasion [15.086451828825398]
回避敵は、ウォーターマークサンプルを記憶したモデルによって生成されるショートカットを、容易に利用することができる。
モデルを学習してそれらを正確に認識することで、ユニークな透かし行動が知識注入によって促進される。
論文 参考訳(メタデータ) (2024-04-21T03:38:20Z) - SimAC: A Simple Anti-Customization Method for Protecting Face Privacy against Text-to-Image Synthesis of Diffusion Models [16.505593270720034]
本稿では,既存のアンチ・カストマイゼーション手法とシームレスに統合された最適時間ステップを適応的に探索する手法を提案する。
我々のアプローチはアイデンティティの破壊を著しく増加させ、それによってユーザのプライバシと著作権を保護する。
論文 参考訳(メタデータ) (2023-12-13T03:04:22Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。