論文の概要: Peccavi: Visual Paraphrase Attack Safe and Distortion Free Image Watermarking Technique for AI-Generated Images
- arxiv url: http://arxiv.org/abs/2506.22960v1
- Date: Sat, 28 Jun 2025 17:34:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.647475
- Title: Peccavi: Visual Paraphrase Attack Safe and Distortion Free Image Watermarking Technique for AI-Generated Images
- Title(参考訳): Peccavi:AI生成画像に対する視覚的パラフレーズ攻撃の安全性と歪みのない画像透かし技術
- Authors: Shreyas Dixit, Ashhar Aziz, Shashwat Bajpai, Vasu Sharma, Aman Chadha, Vinija Jain, Amitava Das,
- Abstract要約: 本稿では,最初のビジュアルパラフレーズアタックセーフで歪みのない画像透かし技術であるPECCAVIを紹介する。
視覚的パラフレーズ攻撃では、画像は、Non-Melting Points (NMPs)と呼ばれるコアセマンティック領域を保持しながら変更される。
PECCAVIは戦略的にこれらのNMP内に透かしを埋め込み、マルチチャネル周波数領域透かしを用いる。
- 参考スコア(独自算出の注目度): 6.384378994229647
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A report by the European Union Law Enforcement Agency predicts that by 2026, up to 90 percent of online content could be synthetically generated, raising concerns among policymakers, who cautioned that "Generative AI could act as a force multiplier for political disinformation. The combined effect of generative text, images, videos, and audio may surpass the influence of any single modality." In response, California's Bill AB 3211 mandates the watermarking of AI-generated images, videos, and audio. However, concerns remain regarding the vulnerability of invisible watermarking techniques to tampering and the potential for malicious actors to bypass them entirely. Generative AI-powered de-watermarking attacks, especially the newly introduced visual paraphrase attack, have shown an ability to fully remove watermarks, resulting in a paraphrase of the original image. This paper introduces PECCAVI, the first visual paraphrase attack-safe and distortion-free image watermarking technique. In visual paraphrase attacks, an image is altered while preserving its core semantic regions, termed Non-Melting Points (NMPs). PECCAVI strategically embeds watermarks within these NMPs and employs multi-channel frequency domain watermarking. It also incorporates noisy burnishing to counter reverse-engineering efforts aimed at locating NMPs to disrupt the embedded watermark, thereby enhancing durability. PECCAVI is model-agnostic. All relevant resources and codes will be open-sourced.
- Abstract(参考訳): EU法執行機関(EU)の報告書は、2026年までにオンラインコンテンツの最大90%が合成的に生成される可能性があると予測しており、政策立案者の間では「生成AIは政治的偽情報の強制乗算器として機能する可能性がある。生成テキスト、画像、ビデオ、オーディオの複合効果は、あらゆる単一のモダリティの影響を超越する可能性がある」と警告している。
カリフォルニア州のBill AB 3211は、AI生成画像、ビデオ、オーディオの透かしを義務付けている。
しかし、目に見えない透かし技術による改ざんの危険性と、悪質な俳優がそれらを全面的に回避する可能性を懸念する声が残っている。
生成AIによる非透かし攻撃、特に新しく導入された視覚的パラフレーズ攻撃は、透かしを完全に除去する能力を示し、結果として元のイメージのパラフレーズとなった。
本稿では,最初のビジュアルパラフレーズアタックセーフで歪みのない画像透かし技術であるPECCAVIを紹介する。
視覚的パラフレーズ攻撃では、イメージは、Non-Melting Points (NMP)と呼ばれるコアセマンティック領域を保持しながら変更される。
PECCAVIは戦略的にこれらのNMP内に透かしを埋め込み、マルチチャネル周波数領域透かしを用いる。
また、NMPが埋め込まれた透かしを乱すために位置決めすることを目的としたリバースエンジニアリングの努力に対抗するためにノイズの多い燃焼も取り入れており、耐久性を高めている。
PECCAVIはモデルに依存しない。
関連するすべてのリソースとコードはオープンソースになる。
関連論文リスト
- SEAL: Semantic Aware Image Watermarking [26.606008778795193]
本稿では,生成した画像のセマンティック情報を透かしに直接埋め込む新しい透かし手法を提案する。
キーパターンは、局所性に敏感なハッシュを用いて画像のセマンティック埋め込みから推測することができる。
以上の結果から,画像生成モデルによるリスクを軽減できる可能性が示唆された。
論文 参考訳(メタデータ) (2025-03-15T15:29:05Z) - Robust and Minimally Invasive Watermarking for EaaS [50.08021440235581]
組み込み・アズ・ア・サービス(Eding)はAIアプリケーションにおいて重要な役割を担っている。
編集はモデル抽出攻撃に対して脆弱であり、著作権保護の必要性を強調している。
そこで我々は,Edingの著作権保護を堅牢にするための新しい埋め込み専用透かし (ESpeW) 機構を提案する。
論文 参考訳(メタデータ) (2024-10-23T04:34:49Z) - The Brittleness of AI-Generated Image Watermarking Techniques: Examining Their Robustness Against Visual Paraphrasing Attacks [5.708967043277477]
画像から透かしを除去できるビジュアルパラフレーズを提案する。
まず, KOSMOS-2 を用いた画像のキャプションを生成する。
拡散パイプラインのデノイングステップの間、システムはテキストキャプションによってガイドされる視覚的に類似した画像を生成する。
実験の結果,視覚的パラフレーズ攻撃は画像から透かしを効果的に除去できることが示された。
論文 参考訳(メタデータ) (2024-08-19T22:58:30Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。