論文の概要: Proof-of-Authorship for Diffusion-based AI Generated Content
- arxiv url: http://arxiv.org/abs/2603.17513v1
- Date: Wed, 18 Mar 2026 09:21:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.596635
- Title: Proof-of-Authorship for Diffusion-based AI Generated Content
- Title(参考訳): 拡散型AI生成コンテンツの認証証明
- Authors: De Zhang Lee, Han Fang, Ee-Chien Chang,
- Abstract要約: 著者が潜在拡散モデル(LDM)を用いて生成されたオブジェクトのオーサリングを主張しようとするシナリオに焦点を当てる。
本稿では,クレームが偽である確率を定量化する確率的代弁者を含むオーサシップの証明フレームワークを提案する。
- 参考スコア(独自算出の注目度): 25.36313126508004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in AI-generated content (AIGC) have introduced new challenges in intellectual property protection and the authentication of generated objects. We focus on scenarios in which an author seeks to assert authorship of an object generated using latent diffusion models (LDMs), in the presence of adversaries who attempt to falsely claim authorship of objects they did not create. While proof-of-ownership has been studied in the context of multimedia content through techniques such as time-stamping and watermarking, these approaches face notable limitations. In contrast to traditional content creation sources (e.g., cameras), the LDM generation process offers greater control to the author. Specifically, the random seed used during generation can be deliberately chosen. By binding the seed to the author's identity using cryptographic pseudorandom functions, the author can assert to be the creator of the object. We refer to this stronger guarantee as proof-of-authorship, since only the creator of the object can legitimately claim the object. This contrasts with proof-of-ownership via time-stamping or watermarking, where any entity could potentially claim ownership of an object by being the first to timestamp or embed the watermark. We propose a proof-of-authorship framework involving a probabilistic adjudicator who quantifies the probability that a claim is false. Furthermore, unlike prior approaches, the proposed framework does not involve any secret. We explore various attack scenarios and analyze design choices using Stable Diffusion 2.1 (SD2.1) as representative case studies.
- Abstract(参考訳): AIGCの最近の進歩は、知的財産保護と生成されたオブジェクトの認証において、新たな課題をもたらしている。
著者が潜在拡散モデル(LDM)を用いて生成したオブジェクトのオーサシップを主張しようとするシナリオに焦点をあてる。
タイムスタンピングやウォーターマーキングといった手法によって、マルチメディアコンテンツの文脈でオーナーシップの証明が研究されているが、これらのアプローチは顕著な制限に直面している。
従来のコンテンツ生成ソース(例えばカメラ)とは対照的に、LCM生成プロセスは著者により大きな制御を提供する。
具体的には、生成時に使用するランダムシードを意図的に選択することができる。
暗号擬似乱数関数を使って、シードを著者のアイデンティティに結び付けることで、著者はオブジェクトの作者であると断言できる。
オブジェクトの作者だけが、そのオブジェクトを合法的に主張できるからです。
これは、タイムスタンプやウォーターマーキングによるオーナーシップの証明とは対照的であり、任意のエンティティが最初にタイムスタンプやウォーターマークを埋め込むことで、オブジェクトの所有権を主張できる。
本稿では,クレームが偽である確率を定量化する確率的代弁者を含むオーサシップの証明フレームワークを提案する。
さらに、従来のアプローチとは異なり、提案されたフレームワークには秘密が一切含まれていない。
各種攻撃シナリオを探索し, 安定拡散2.1 (SD2.1) を用いた設計選択を代表事例として分析する。
関連論文リスト
- SWAP: Towards Copyright Auditing of Soft Prompts via Sequential Watermarking [58.475471437150674]
ソフトプロンプト(SWAP)のための逐次透かしを提案する。
SWAPは、特定のディフェンダー指定のアウト・オブ・ディストリビューション・クラスを通じて、透かしを符号化する。
11のデータセットの実験では、SWAPの有効性、無害性、および潜在的適応攻撃に対する堅牢性を示す。
論文 参考訳(メタデータ) (2025-11-05T13:48:48Z) - Towards Dataset Copyright Evasion Attack against Personalized Text-to-Image Diffusion Models [52.877452505561706]
データセットのオーナシップ検証(DOV)を損なうよう特別に設計された最初の著作権回避攻撃を提案する。
CEAT2Iは, 試料検出, トリガー同定, 効率的な透かし除去の3段階からなる。
実験の結果,CEAT2I はモデル性能を保ちながら DOV 機構を効果的に回避できることがわかった。
論文 参考訳(メタデータ) (2025-05-05T17:51:55Z) - Towards Copyright Protection for Knowledge Bases of Retrieval-augmented Language Models via Reasoning [58.57194301645823]
大規模言語モデル(LLM)は、現実のパーソナライズされたアプリケーションにますます統合されている。
RAGで使用される知識基盤の貴重かつしばしばプロプライエタリな性質は、敵による不正使用のリスクをもたらす。
これらの知識基盤を保護するための透かし技術として一般化できる既存の方法は、一般的に毒やバックドア攻撃を含む。
我々は、無害な」知識基盤の著作権保護の名称を提案する。
論文 参考訳(メタデータ) (2025-02-10T09:15:56Z) - Explanation as a Watermark: Towards Harmless and Multi-bit Model Ownership Verification via Watermarking Feature Attribution [22.933101948176606]
バックドアベースのモデル透かしは、リリースされたモデルにそのような特性を埋め込む、プライマリおよび最先端の方法である。
特徴属性の説明に検証動作を埋め込む新しい透かしパラダイムである$i.e.$, Explanation as a Watermark (EaaW) を設計する。
論文 参考訳(メタデータ) (2024-05-08T05:49:46Z) - A Watermark-Conditioned Diffusion Model for IP Protection [31.969286898467985]
拡散モデルにおけるコンテンツ著作権保護のための統一的な透かしフレームワークを提案する。
そこで我々はWaDiffと呼ばれるWadmark条件付き拡散モデルを提案する。
本手法は,検出タスクと所有者識別タスクの両方において有効かつ堅牢である。
論文 参考訳(メタデータ) (2024-03-16T11:08:15Z) - Copyright Protection in Generative AI: A Technical Perspective [58.84343394349887]
ジェネレーティブAIは近年急速に進歩し、テキスト、画像、オーディオ、コードなどの合成コンテンツを作成する能力を拡大している。
これらのディープ・ジェネレーティブ・モデル(DGM)が生成したコンテンツの忠実さと信頼性が、著作権の重大な懸念を引き起こしている。
この研究は、技術的観点から著作権保護の包括的概要を提供することで、この問題を深く掘り下げている。
論文 参考訳(メタデータ) (2024-02-04T04:00:33Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。