論文の概要: Evading Watermark based Detection of AI-Generated Content
- arxiv url: http://arxiv.org/abs/2305.03807v1
- Date: Fri, 5 May 2023 19:20:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 19:21:08.084887
- Title: Evading Watermark based Detection of AI-Generated Content
- Title(参考訳): 透かしを用いたAI生成コンテンツの検出
- Authors: Zhengyuan Jiang, Jinghuai Zhang, Neil Zhenqiang Gong
- Abstract要約: 生成AIモデルは、非常に現実的なコンテンツを生成することができる。
WatermarkはAI生成コンテンツの検出に活用されている。
類似の透かしをデコードできれば、コンテンツはAI生成として検出される。
- 参考スコア(独自算出の注目度): 36.076768065589285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A generative AI model -- such as DALL-E, Stable Diffusion, and ChatGPT -- can
generate extremely realistic-looking content, posing growing challenges to the
authenticity of information. To address the challenges, watermark has been
leveraged to detect AI-generated content. Specifically, a watermark is embedded
into an AI-generated content before it is released. A content is detected as
AI-generated if a similar watermark can be decoded from it. In this work, we
perform a systematic study on the robustness of such watermark-based
AI-generated content detection. We focus on AI-generated images. Our work shows
that an attacker can post-process an AI-generated watermarked image via adding
a small, human-imperceptible perturbation to it, such that the post-processed
AI-generated image evades detection while maintaining its visual quality. We
demonstrate the effectiveness of our attack both theoretically and empirically.
Moreover, to evade detection, our adversarial post-processing method adds much
smaller perturbations to the AI-generated images and thus better maintain their
visual quality than existing popular image post-processing methods such as JPEG
compression, Gaussian blur, and Brightness/Contrast. Our work demonstrates the
insufficiency of existing watermark-based detection of AI-generated content,
highlighting the urgent needs of new detection methods.
- Abstract(参考訳): DALL-E、Stable Diffusion、ChatGPTといった生成AIモデルは、極めて現実的なコンテンツを生成することができ、情報の真正性に対する課題が増大する。
この課題に対処するために、透かしを利用してAI生成コンテンツを検出する。
具体的には、リリース前にAI生成コンテンツに透かしを埋め込む。
類似の透かしをデコードできれば、コンテンツはAI生成として検出される。
本研究では,このような透かしに基づくAI生成コンテンツ検出の堅牢性に関する系統的研究を行う。
AI生成画像に焦点を当てる。
我々の研究は、AI生成画像が視覚的品質を維持しながら検出を回避するように、AI生成画像の小さな人間の知覚できない摂動を付加することで、攻撃者がAI生成画像を後処理できることを示しています。
我々は理論的にも経験的にも攻撃の有効性を実証する。
さらに,検出を回避するために,AI生成画像の摂動をはるかに小さくし,JPEG圧縮やガウスボケ,明度/コントラストといった既存の画像後処理方法よりも視覚的品質を向上する。
我々の研究は、既存の透かしに基づくAI生成コンテンツの検出が不十分であることを示し、新しい検出方法の緊急性を強調した。
関連論文リスト
- Watermark-based Detection and Attribution of AI-Generated Content [34.913290430783185]
我々は,AI生成コンテンツのユーザ認識検出と帰属に関する最初の体系的研究を行った。
具体的には,厳密な確率解析による検出と帰属性能について理論的に検討する。
我々は,ユーザの属性性能を向上させるために,効率的な透かしを選択するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-04-05T17:58:52Z) - Latent Watermark: Inject and Detect Watermarks in Latent Diffusion Space [7.082806239644562]
既存の手法は、透かしの堅牢性と画質のジレンマに直面している。
潜時空間における透かしの注入と検出を両立させるための段階的学習戦略を備えた潜時透かし(LW)を提案する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2024-03-30T03:19:50Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - Benchmarking the Robustness of Image Watermarks [69.97769967867634]
本稿では,画像透かし技術の弱点について検討する。
We present WAVES, a novel benchmark for evaluate watermark robustness。
我々はWAVESを,ロバストな透かしシステムの開発のためのツールキットとして想定する。
論文 参考訳(メタデータ) (2024-01-16T18:58:36Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - An Unforgeable Publicly Verifiable Watermark for Large Language Models [88.50683534978407]
現在の透かし検出アルゴリズムは、透かし生成プロセスで使用される秘密鍵を必要とする。
本稿では、2つの異なるニューラルネットワークを用いて透かしの生成と検出を行う、偽造不可能な検証可能な透かしアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-30T13:43:27Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Robust Watermarking using Diffusion of Logo into Autoencoder Feature
Maps [10.072876983072113]
本稿では,透かしのためのエンドツーエンドネットワークを提案する。
画像の内容に基づいて,畳み込みニューラルネットワーク(CNN)を用いて埋め込み強度を制御する。
異なる画像処理攻撃は、モデルの堅牢性を改善するためにネットワーク層としてシミュレートされる。
論文 参考訳(メタデータ) (2021-05-24T05:18:33Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。