論文の概要: EditGuard: Versatile Image Watermarking for Tamper Localization and
Copyright Protection
- arxiv url: http://arxiv.org/abs/2312.08883v1
- Date: Tue, 12 Dec 2023 15:41:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-15 22:25:49.091981
- Title: EditGuard: Versatile Image Watermarking for Tamper Localization and
Copyright Protection
- Title(参考訳): EditGuard: タンパーのローカライゼーションと著作権保護のためのVersatile Image Watermarking
- Authors: Xuanyu Zhang, Runyi Li, Jiwen Yu, Youmin Xu, Weiqi Li, Jian Zhang
- Abstract要約: 著作権保護とタンパー非依存のローカライゼーションを統合するために,プロアクティブな法医学フレームワークEditGuardを提案する。
認識不能な透かしを巧妙に埋め込み、改ざんされた領域と著作権情報の正確な復号を行うことができる。
実験により, EditGuardは, 様々なAIGCに基づく改ざん手法に対して, 改ざん精度, 著作権回復精度, 一般化可能性のバランスをとることを示した。
- 参考スコア(独自算出の注目度): 19.140822655858873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the era where AI-generated content (AIGC) models can produce stunning and
lifelike images, the lingering shadow of unauthorized reproductions and
malicious tampering poses imminent threats to copyright integrity and
information security. Current image watermarking methods, while widely accepted
for safeguarding visual content, can only protect copyright and ensure
traceability. They fall short in localizing increasingly realistic image
tampering, potentially leading to trust crises, privacy violations, and legal
disputes. To solve this challenge, we propose an innovative proactive forensics
framework EditGuard, to unify copyright protection and tamper-agnostic
localization, especially for AIGC-based editing methods. It can offer a
meticulous embedding of imperceptible watermarks and precise decoding of
tampered areas and copyright information. Leveraging our observed fragility and
locality of image-into-image steganography, the realization of EditGuard can be
converted into a united image-bit steganography issue, thus completely
decoupling the training process from the tampering types. Extensive experiments
demonstrate that our EditGuard balances the tamper localization accuracy,
copyright recovery precision, and generalizability to various AIGC-based
tampering methods, especially for image forgery that is difficult for the naked
eye to detect. The project page is available at
https://xuanyuzhang21.github.io/project/editguard/.
- Abstract(参考訳): AIGC(AI- generated content)モデルが素晴らしい、人生的なイメージを生成できる時代において、未承認の複製と悪意のある改ざんの影は、著作権の完全性と情報セキュリティに差し迫った脅威をもたらす。
現在の画像透かし法は、ビジュアルコンテンツの保護に広く受け入れられているが、著作権を保護し、トレーサビリティを保証するだけである。
彼らは、ますます現実的なイメージの改ざんをローカライズするのに不足しており、信頼の危機、プライバシー侵害、法的紛争につながる可能性がある。
この課題を解決するために,我々は,特にAIGCベースの編集手法において,著作権保護とタンパー非依存のローカライゼーションを統一する,革新的なプロアクティブな法医学フレームワークEditGuardを提案する。
認識不能な透かしを巧妙に埋め込み、改ざんされた領域と著作権情報の正確な復号を行うことができる。
画像から画像へのステガノグラフィのフレガリティと局所性を活用することで、editguardを統一した画像ビットステガノグラフィ問題に変換することで、トレーニングプロセスを改ざん型から完全に分離することができる。
大規模な実験により,私たちのEditGuardは,肉眼で検出が困難な画像偽造に対して,様々なAIGCベースの改ざん手法に対して,改ざん精度,著作権回復精度,一般化可能性のバランスをとっていた。
プロジェクトページはhttps://xuanyuzhang21.github.io/project/editguard/で入手できる。
関連論文リスト
- Robust-Wide: Robust Watermarking against Instruction-driven Image Editing [21.69779516621288]
本稿では,命令駆動画像編集に対する最初の堅牢な透かし手法であるRobust-Wideを提案する。
我々は、透かしの埋め込みと抽出に広く使われているエンコーダデコーダフレームワークを採用する。
実験により、ロバスト・ウェイドは編集画像から効果的に透かしを抽出でき、ビット誤り率は2.6%近くであることが示された。
論文 参考訳(メタデータ) (2024-02-20T03:33:54Z) - A Dataset and Benchmark for Copyright Protection from Text-to-Image Diffusion Models [51.5808323691985]
安定した拡散によって生成されたコンテンツと著作権保護下のコンテンツの潜在的な相関性を評価する体系的な研究の欠如がある。
この作業は、著作権保護に関する最初の大規模標準化データセットとベンチマークを提供する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - IMPRESS: Evaluating the Resilience of Imperceptible Perturbations
Against Unauthorized Data Usage in Diffusion-Based Generative AI [52.90082445349903]
拡散ベースの画像生成モデルは、アーティストのスタイルを模倣するアートイメージを作成したり、偽のコンテンツのためにオリジナルの画像を悪意を持って編集することができる。
知覚不能な摂動を追加することによって、元のイメージをそのような不正なデータ使用から保護する試みがいくつかなされている。
本研究では, IMPRESS という浄化摂動プラットフォームを導入し, 非受容性摂動の有効性を保護策として評価する。
論文 参考訳(メタデータ) (2023-10-30T03:33:41Z) - FT-Shield: A Watermark Against Unauthorized Fine-tuning in Text-to-Image Diffusion Models [64.89896692649589]
テキスト・画像拡散モデルの微調整に適した透かしシステムであるFT-Shieldを提案する。
FT-Shieldは新しい透かしの生成と検出戦略を設計することで著作権保護の課題に対処する。
論文 参考訳(メタデータ) (2023-10-03T19:50:08Z) - A Plug-and-Play Defensive Perturbation for Copyright Protection of
DNN-based Applications [1.4226119891617357]
DNNベースのアプリケーション(スタイル転送)に対する防御的摂動に基づくプラグアンドプレイ見えない著作権保護手法を提案する。
我々は,著作権情報を設計した著作権エンコーダで防御的摂動に投影し,保護対象の画像に追加する。
そして,発明した著作権復号器を用いて,符号化された著作権画像から著作権情報を抽出する。
論文 参考訳(メタデータ) (2023-04-20T23:57:39Z) - JPEG Compressed Images Can Bypass Protections Against AI Editing [48.340067730457584]
悪意ある編集から画像を保護する手段として、知覚不能な摂動が提案されている。
上記の摂動はJPEG圧縮に対して堅牢ではないことがわかった。
論文 参考訳(メタデータ) (2023-04-05T05:30:09Z) - Anti-Neuron Watermarking: Protecting Personal Data Against Unauthorized
Neural Model Training [50.308254937851814]
個人データ(画像など)は、許可なくディープニューラルネットワークモデルをトレーニングするために不適切に利用することができる。
特殊な線形色変換を使用して透かしシグネチャをユーザイメージに埋め込むことで、ニューラルモデルはそのようなシグネチャでインプリントされる。
これは、ニューラルネットワークトレーニングにおいて、ユーザの個人情報を不正使用から保護する最初の作業である。
論文 参考訳(メタデータ) (2021-09-18T22:10:37Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。