論文の概要: DMark: Order-Agnostic Watermarking for Diffusion Large Language Models
- arxiv url: http://arxiv.org/abs/2510.02902v1
- Date: Fri, 03 Oct 2025 11:14:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.359015
- Title: DMark: Order-Agnostic Watermarking for Diffusion Large Language Models
- Title(参考訳): DMark: 拡散大言語モデルのための順序に依存しない透かし
- Authors: Linyu Wu, Linhao Zhong, Wenjie Qu, Yuexin Li, Yue Liu, Shengfang Zhai, Chunhua Shen, Jiaheng Zhang,
- Abstract要約: 拡散大言語モデル(dLLM)は、同等の品質を維持しながら、自己回帰モデルよりも高速な生成を提供する。
DMarkは、dLLM用に特別に設計された最初の透かしフレームワークである。
- 参考スコア(独自算出の注目度): 46.07844536066178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion large language models (dLLMs) offer faster generation than autoregressive models while maintaining comparable quality, but existing watermarking methods fail on them due to their non-sequential decoding. Unlike autoregressive models that generate tokens left-to-right, dLLMs can finalize tokens in arbitrary order, breaking the causal design underlying traditional watermarks. We present DMark, the first watermarking framework designed specifically for dLLMs. DMark introduces three complementary strategies to restore watermark detectability: predictive watermarking uses model-predicted tokens when actual context is unavailable; bidirectional watermarking exploits both forward and backward dependencies unique to diffusion decoding; and predictive-bidirectional watermarking combines both approaches to maximize detection strength. Experiments across multiple dLLMs show that DMark achieves 92.0-99.5% detection rates at 1% false positive rate while maintaining text quality, compared to only 49.6-71.2% for naive adaptations of existing methods. DMark also demonstrates robustness against text manipulations, establishing that effective watermarking is feasible for non-autoregressive language models.
- Abstract(参考訳): 拡散大言語モデル (dLLMs) は自己回帰モデルよりも高速な生成を提供するが、既存のウォーターマーキング手法は非逐次デコーディングのため失敗する。
トークンを左から右に生成する自己回帰モデルとは異なり、dLLMはトークンを任意の順序で確定することができ、従来の透かしの根底にある因果的設計を破ることができる。
DMarkは、dLLM用に特別に設計された最初の透かしフレームワークである。
予測透かしは、実際のコンテキストが利用できないときにモデル予測トークンを使用し、双方向透かしは拡散復号に特有の前方および後方の依存関係を悪用し、予測双方向透かしは両方のアプローチを組み合わせて検出強度を最大化する。
複数のdLLMでの実験では、DMarkはテキスト品質を維持しながら1%の偽陽性率で92.0-99.5%の検知率を達成した。
DMarkはまた、テキスト操作に対する堅牢性を示し、非自己回帰言語モデルで効果的な透かしが実現可能であることを証明している。
関連論文リスト
- Watermarking Diffusion Language Models [9.515480957792542]
拡散言語モデル(DLM)に適した最初の透かしを導入する。
これは、トークンを逐次生成する標準自己回帰言語モデル(ARLM)とは対照的に、任意の順序でトークンを生成できる創発的LLMパラダイムである。
論文 参考訳(メタデータ) (2025-09-29T07:11:40Z) - Towards Robust Red-Green Watermarking for Autoregressive Image Generators [17.784976310663104]
本稿では,自己回帰(AR)画像モデルにおける世代内透かしの利用について検討する。
ARモデルは、視覚トークンのシーケンスを自動回帰予測して画像を生成し、それをピクセルにデコードする。
大規模言語モデルの赤緑色の透かしに着想を得て,次の予測に偏ったトークンレベルの透かし方式を検討した。
類似したトークンを同じ集合に割り当てるために、視覚トークンクラスタリングに依存する2つの新しい透かし手法を提案する。
論文 参考訳(メタデータ) (2025-08-08T19:14:22Z) - Training-Free Watermarking for Autoregressive Image Generation [24.86897985016275]
IndexMarkは自動回帰画像生成モデルのためのトレーニング不要な透かしフレームワークである。
IndexMarkは画像の品質と精度の点で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-05-20T17:58:02Z) - Improved Unbiased Watermark for Large Language Models [59.00698153097887]
本稿では,非バイアスのマルチチャネル型透かしであるMCmarkを紹介する。
MCmarkは言語モデルの本来の分布を保存する。
既存の非バイアスの透かしよりも検出性と堅牢性を大幅に改善する。
論文 参考訳(メタデータ) (2025-02-16T21:02:36Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - A Watermark for Large Language Models [84.95327142027183]
本稿では,プロプライエタリな言語モデルのための透かしフレームワークを提案する。
透かしはテキストの品質に無視できない影響で埋め込むことができる。
言語モデルAPIやパラメータにアクセスすることなく、効率的なオープンソースアルゴリズムを使って検出することができる。
論文 参考訳(メタデータ) (2023-01-24T18:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。