論文の概要: Watermark-based Detection and Attribution of AI-Generated Content
- arxiv url: http://arxiv.org/abs/2404.04254v1
- Date: Fri, 5 Apr 2024 17:58:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-08 15:26:09.621177
- Title: Watermark-based Detection and Attribution of AI-Generated Content
- Title(参考訳): 透かしに基づくAI生成コンテンツの検出と属性
- Authors: Zhengyuan Jiang, Moyang Guo, Yuepeng Hu, Neil Zhenqiang Gong,
- Abstract要約: 我々は,AI生成コンテンツのユーザ認識検出と帰属に関する最初の体系的研究を行った。
具体的には,厳密な確率解析による検出と帰属性能について理論的に検討する。
我々は,ユーザの属性性能を向上させるために,効率的な透かしを選択するアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 34.913290430783185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several companies--such as Google, Microsoft, and OpenAI--have deployed techniques to watermark AI-generated content to enable proactive detection. However, existing literature mainly focuses on user-agnostic detection. Attribution aims to further trace back the user of a generative-AI service who generated a given content detected as AI-generated. Despite its growing importance, attribution is largely unexplored. In this work, we aim to bridge this gap by providing the first systematic study on watermark-based, user-aware detection and attribution of AI-generated content. Specifically, we theoretically study the detection and attribution performance via rigorous probabilistic analysis. Moreover, we develop an efficient algorithm to select watermarks for the users to enhance attribution performance. Both our theoretical and empirical results show that watermark-based detection and attribution inherit the accuracy and (non-)robustness properties of the watermarking method.
- Abstract(参考訳): Google、Microsoft、OpenAIなどいくつかの企業が、AI生成したコンテンツを透かし、積極的な検出を可能にする技術を展開している。
しかし、既存の文献は主にユーザに依存しない検出に焦点を当てている。
Attributionは、AI生成として検出された所定のコンテンツを生成する生成AIサービスのユーザをさらに追跡することを目的としている。
重要性は増しているが、帰属は未発見である。
本研究では,このギャップを埋めるために,透かしに基づくユーザ認識検出とAI生成コンテンツの帰属に関する最初の体系的な研究を提供することを目的とする。
具体的には,厳密な確率解析による検出と帰属性能について理論的に検討する。
さらに,ユーザの属性性能を向上させるために,効率的な透かし選択アルゴリズムを開発した。
理論的および実証的な結果から,透かしによる検出と帰属が透かし法の精度と(非)難解性を引き継いでいることが示唆された。
関連論文リスト
- ESpeW: Robust Copyright Protection for LLM-based EaaS via Embedding-Specific Watermark [50.08021440235581]
組み込み・アズ・ア・サービス(Eding)はAIアプリケーションにおいて重要な役割を担っている。
編集はモデル抽出攻撃に対して脆弱であり、著作権保護の緊急の必要性を強調している。
そこで我々は,Edingの著作権保護を堅牢にするための新しい埋め込み専用透かし (ESpeW) 機構を提案する。
論文 参考訳(メタデータ) (2024-10-23T04:34:49Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - Steganalysis on Digital Watermarking: Is Your Defense Truly Impervious? [21.06493827123594]
ステガナリシス攻撃は 最小限の知覚歪みで 透かしを抽出し除去できる
平均的な透かし画像の集合は、その下にある透かしパターンを明らかにすることができる。
本稿では,コンテンツ適応型透かし戦略とステガナリシスに対するセキュリティ評価を実施するためのセキュリティガイドラインを提案する。
論文 参考訳(メタデータ) (2024-06-13T12:01:28Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - A Resilient and Accessible Distribution-Preserving Watermark for Large Language Models [65.40460716619772]
本研究は,textbfDistribution-textbf Preserving (DiP)ウォーターマークの重要性に焦点をあてる。
現在の戦略とは対照的に,提案したDiPmarkは透かし中に元のトークン分布を同時に保存する。
言語モデルAPIにアクセスせずに検出可能で(アクセス可能)、トークンの適度な変更に対して確実に堅牢である。
論文 参考訳(メタデータ) (2023-10-11T17:57:35Z) - Unbiased Watermark for Large Language Models [67.43415395591221]
本研究では, モデル生成出力の品質に及ぼす透かしの影響について検討した。
出力確率分布に影響を与えることなく、透かしを統合することができる。
ウォーターマークの存在は、下流タスクにおけるモデルの性能を損なうものではない。
論文 参考訳(メタデータ) (2023-09-22T12:46:38Z) - Evading Watermark based Detection of AI-Generated Content [45.47476727209842]
生成AIモデルは、非常に現実的なコンテンツを生成することができる。
WatermarkはAI生成コンテンツの検出に活用されている。
類似の透かしをデコードできれば、コンテンツはAI生成として検出される。
論文 参考訳(メタデータ) (2023-05-05T19:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。