論文の概要: Evading Watermark based Detection of AI-Generated Content
- arxiv url: http://arxiv.org/abs/2305.03807v5
- Date: Wed, 8 Nov 2023 15:23:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 20:01:13.362136
- Title: Evading Watermark based Detection of AI-Generated Content
- Title(参考訳): 透かしを用いたAI生成コンテンツの検出
- Authors: Zhengyuan Jiang, Jinghuai Zhang, Neil Zhenqiang Gong
- Abstract要約: 生成AIモデルは、非常に現実的なコンテンツを生成することができる。
WatermarkはAI生成コンテンツの検出に活用されている。
類似の透かしをデコードできれば、コンテンツはAI生成として検出される。
- 参考スコア(独自算出の注目度): 45.47476727209842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A generative AI model can generate extremely realistic-looking content,
posing growing challenges to the authenticity of information. To address the
challenges, watermark has been leveraged to detect AI-generated content.
Specifically, a watermark is embedded into an AI-generated content before it is
released. A content is detected as AI-generated if a similar watermark can be
decoded from it. In this work, we perform a systematic study on the robustness
of such watermark-based AI-generated content detection. We focus on
AI-generated images. Our work shows that an attacker can post-process a
watermarked image via adding a small, human-imperceptible perturbation to it,
such that the post-processed image evades detection while maintaining its
visual quality. We show the effectiveness of our attack both theoretically and
empirically. Moreover, to evade detection, our adversarial post-processing
method adds much smaller perturbations to AI-generated images and thus better
maintain their visual quality than existing popular post-processing methods
such as JPEG compression, Gaussian blur, and Brightness/Contrast. Our work
shows the insufficiency of existing watermark-based detection of AI-generated
content, highlighting the urgent needs of new methods. Our code is publicly
available: https://github.com/zhengyuan-jiang/WEvade.
- Abstract(参考訳): 生成可能なAIモデルは、極めて現実的なコンテンツを生成することができ、情報の信頼性に対する課題が増大する。
この課題に対処するために、透かしを利用してAI生成コンテンツを検出する。
具体的には、リリース前にAI生成コンテンツに透かしを埋め込む。
類似の透かしをデコードできれば、コンテンツはAI生成として検出される。
本研究では,このような透かしに基づくAI生成コンテンツ検出の堅牢性に関する系統的研究を行う。
AI生成画像に焦点を当てる。
本研究は,視覚品質を維持したまま検出を回避できるような,人間に知覚できない小さな摂動を加えることで,後処理が可能なことを示す。
理論的にも経験的にも攻撃の有効性を示す。
さらに,検出を回避するために,AI生成画像の摂動をはるかに小さくし,JPEG圧縮やガウスアンボケ,明度/コントラストといった一般的な後処理方法よりも視覚的品質を向上する。
我々の研究は、既存の透かしに基づくAI生成コンテンツの検出が不十分であることを示し、新しい方法の緊急性を強調している。
私たちのコードは、https://github.com/zhengyuan-jiang/WEvade.comで公開されています。
関連論文リスト
- Watermark-based Detection and Attribution of AI-Generated Content [34.913290430783185]
我々は,AI生成コンテンツのユーザ認識検出と帰属に関する最初の体系的研究を行った。
具体的には,厳密な確率解析による検出と帰属性能について理論的に検討する。
我々は,ユーザの属性性能を向上させるために,効率的な透かしを選択するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-04-05T17:58:52Z) - Latent Watermark: Inject and Detect Watermarks in Latent Diffusion Space [7.082806239644562]
既存の手法は、透かしの堅牢性と画質のジレンマに直面している。
潜時空間における透かしの注入と検出を両立させるための段階的学習戦略を備えた潜時透かし(LW)を提案する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2024-03-30T03:19:50Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - Benchmarking the Robustness of Image Watermarks [69.97769967867634]
本稿では,画像透かし技術の弱点について検討する。
We present WAVES, a novel benchmark for evaluate watermark robustness。
我々はWAVESを,ロバストな透かしシステムの開発のためのツールキットとして想定する。
論文 参考訳(メタデータ) (2024-01-16T18:58:36Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - An Unforgeable Publicly Verifiable Watermark for Large Language Models [88.50683534978407]
現在の透かし検出アルゴリズムは、透かし生成プロセスで使用される秘密鍵を必要とする。
本稿では、2つの異なるニューラルネットワークを用いて透かしの生成と検出を行う、偽造不可能な検証可能な透かしアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-30T13:43:27Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Robust Watermarking using Diffusion of Logo into Autoencoder Feature
Maps [10.072876983072113]
本稿では,透かしのためのエンドツーエンドネットワークを提案する。
画像の内容に基づいて,畳み込みニューラルネットワーク(CNN)を用いて埋め込み強度を制御する。
異なる画像処理攻撃は、モデルの堅牢性を改善するためにネットワーク層としてシミュレートされる。
論文 参考訳(メタデータ) (2021-05-24T05:18:33Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。