論文の概要: Watermarking Discrete Diffusion Language Models
- arxiv url: http://arxiv.org/abs/2511.02083v1
- Date: Mon, 03 Nov 2025 21:43:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.688295
- Title: Watermarking Discrete Diffusion Language Models
- Title(参考訳): 離散拡散言語モデルの透かし
- Authors: Avi Bagchi, Akhil Bhimaraju, Moulik Choraria, Daniel Alabi, Lav R. Varshney,
- Abstract要約: 分散保存Gumbel-max法を各拡散ステップで適用することにより, 離散拡散モデルに対する最初の透かし法を提案する。
我々は,トークン列長における偽検出の指数的に減衰する確率で,本手法が歪みのないことを実験的に実証し,解析的に証明した。
- 参考スコア(独自算出の注目度): 17.991665184843562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Watermarking has emerged as a promising technique to track AI-generated content and differentiate it from authentic human creations. While prior work extensively studies watermarking for autoregressive large language models (LLMs) and image diffusion models, none address discrete diffusion language models, which are becoming popular due to their high inference throughput. In this paper, we introduce the first watermarking method for discrete diffusion models by applying the distribution-preserving Gumbel-max trick at every diffusion step and seeding the randomness with the sequence index to enable reliable detection. We experimentally demonstrate that our scheme is reliably detectable on state-of-the-art diffusion language models and analytically prove that it is distortion-free with an exponentially decaying probability of false detection in the token sequence length.
- Abstract(参考訳): ウォーターマーキングは、AIが生成したコンテンツを追跡し、それを本物の人間の創造物と区別するための有望なテクニックとして登場した。
先行研究は自己回帰型大言語モデル(LLM)と画像拡散モデルの透かしを広範囲に研究していたが、高い推論スループットのために普及しつつある離散拡散言語モデルには対応していない。
本稿では,各拡散ステップに分布保存Gumbel-maxトリックを適用し,そのランダム性をシーケンスインデックスでシード化し,信頼度の高い検出を行うことにより,離散拡散モデルに対する最初の透かし手法を提案する。
本研究では,提案手法が最先端拡散言語モデル上で確実に検出可能であることを実験的に証明し,トークン列長における偽検出の指数的に減衰する確率で歪みのないことを解析的に証明する。
関連論文リスト
- Authentic Discrete Diffusion Model [72.31371542619121]
認証離散拡散(ADD)フレームワークは、従来の擬似離散的アプローチを再定義する。
ADDはフロートエンコードされたワンホットクラスデータを直接使用して拡散入力を再構成する。
実験により、ADDはベースラインと比較して分類タスクにおいて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-10-01T15:51:10Z) - Why Masking Diffusion Works: Condition on the Jump Schedule for Improved Discrete Diffusion [44.51145995160038]
マルコフ過程は不連続なジャンプによって一定の速度で進化する。
他の離散拡散モデルとは異なり、マスク拡散はジャンプ時間の既知の分布に構築され、どこにジャンプするかしか学ばない。
論文 参考訳(メタデータ) (2025-06-10T00:58:25Z) - DIVE: Inverting Conditional Diffusion Models for Discriminative Tasks [79.50756148780928]
本稿では,事前学習した拡散モデルを用いて識別課題を遂行する問題について検討する。
我々は、事前学習されたレイアウト・ツー・イメージ拡散モデルの「反転」により、事前学習した凍結生成拡散モデルの識別能力を分類タスクからより複雑なオブジェクト検出タスクに拡張する。
論文 参考訳(メタデータ) (2025-04-24T05:13:27Z) - Generalized Interpolating Discrete Diffusion [65.74168524007484]
仮面拡散はその単純さと有効性のために一般的な選択である。
ノイズ発生過程の設計において、より柔軟性の高い離散拡散(GIDD)を補間する新しいファミリを一般化する。
GIDDの柔軟性をエクスプロイトし、マスクと均一ノイズを組み合わせたハイブリッドアプローチを探索し、サンプル品質を向上する。
論文 参考訳(メタデータ) (2025-03-06T14:30:55Z) - One-for-More: Continual Diffusion Model for Anomaly Detection [63.50488826645681]
異常検出法は拡散モデルを用いて任意の異常画像が与えられたときの正常サンプルの生成または再構成を行う。
われわれは,拡散モデルが「重度忠実幻覚」と「破滅的な忘れ」に悩まされていることを発見した。
本研究では,安定な連続学習を実現するために勾配予測を用いた連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-02-27T07:47:27Z) - Exposing the Fake: Effective Diffusion-Generated Images Detection [14.646957596560076]
本稿では拡散生成画像検出(SeDID)のためのステップワイド誤差と呼ばれる新しい検出法を提案する。
SeDIDは拡散モデルのユニークな特性、すなわち決定論的逆転と決定論的逆退誤差を利用する。
我々の研究は拡散モデル生成画像の識別に重要な貢献をしており、人工知能のセキュリティ分野における重要なステップとなっている。
論文 参考訳(メタデータ) (2023-07-12T16:16:37Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。