論文の概要: dgMARK: Decoding-Guided Watermarking for Diffusion Language Models
- arxiv url: http://arxiv.org/abs/2601.22985v1
- Date: Fri, 30 Jan 2026 13:51:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.483916
- Title: dgMARK: Decoding-Guided Watermarking for Diffusion Language Models
- Title(参考訳): dgMARK:拡散言語モデルのためのデコードガイドによる透かし
- Authors: Pyo Min Hong, Albert No,
- Abstract要約: dgMARKは離散拡散言語モデルのための復号誘導型透かし法である。
dgMARKは、逆候補トークンが単純なパリティ制約を満たす位置に対して、偽りの順序を定めている。
透かしはパリティマッチング統計によって検出される。
- 参考スコア(独自算出の注目度): 5.43345665278304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose dgMARK, a decoding-guided watermarking method for discrete diffusion language models (dLLMs). Unlike autoregressive models, dLLMs can generate tokens in arbitrary order. While an ideal conditional predictor would be invariant to this order, practical dLLMs exhibit strong sensitivity to the unmasking order, creating a new channel for watermarking. dgMARK steers the unmasking order toward positions whose high-reward candidate tokens satisfy a simple parity constraint induced by a binary hash, without explicitly reweighting the model's learned probabilities. The method is plug-and-play with common decoding strategies (e.g., confidence, entropy, and margin-based ordering) and can be strengthened with a one-step lookahead variant. Watermarks are detected via elevated parity-matching statistics, and a sliding-window detector ensures robustness under post-editing operations including insertion, deletion, substitution, and paraphrasing.
- Abstract(参考訳): 離散拡散言語モデル(dLLMs)のためのデコード誘導型透かし法であるdgMARKを提案する。
自己回帰モデルとは異なり、dLLMは任意の順序でトークンを生成することができる。
理想的な条件予測器は、この順序に不変であるが、実用的なdLLMは、マスキングの順序に対して強い感度を示し、新しい透かしのチャネルを作る。
dgMARKは、モデルが学習した確率を明示的に重み付けすることなく、2進ハッシュによって誘導される単純なパリティ制約を満たす高逆候補トークンを持つ位置に対して、不正な順序を定めている。
この方法は、一般的な復号戦略(例えば、信頼、エントロピー、マージンに基づく順序付け)でプラグアンドプレイであり、ワンステップのルックアヘッド変種で強化することができる。
透かしは高いパリティマッチング統計によって検出され、スライドウインドウ検出器は挿入、削除、置換、パラフレージングを含む後処理操作下で堅牢性を保証する。
関連論文リスト
- LR-DWM: Efficient Watermarking for Diffusion Language Models [40.70709965738489]
Diffusion Language Models (DLMs) は、非逐次反復記述によるテキストを生成する。
近年の研究では、DLMを透かし、必要な時に処理を反転させることが提案されているが、計算やメモリのオーバーヘッドがかなり大きい。
本稿では,左隣と右隣の両方に基づいて生成されたトークンをバイアスする左隣拡散透かし(LR-DWM)を導入する。
論文 参考訳(メタデータ) (2026-01-18T12:08:51Z) - DMark: Order-Agnostic Watermarking for Diffusion Large Language Models [46.07844536066178]
拡散大言語モデル(dLLM)は、同等の品質を維持しながら、自己回帰モデルよりも高速な生成を提供する。
DMarkは、dLLM用に特別に設計された最初の透かしフレームワークである。
論文 参考訳(メタデータ) (2025-10-03T11:14:16Z) - StealthInk: A Multi-bit and Stealthy Watermark for Large Language Models [4.76514657698929]
StealthInkは、大規模言語モデル(LLM)のためのステルスなマルチビット透かし方式である
元のテキスト配布を保存し、証明データの埋め込みを可能にする。
固定等誤り率で透かし検出に必要なトークン数に対する低い境界を導出する。
論文 参考訳(メタデータ) (2025-06-05T18:37:38Z) - Accelerating Diffusion LLMs via Adaptive Parallel Decoding [60.407727995313074]
並列にサンプリングされたトークンの数を動的に調整する新しい手法であるアダプティブ並列復号法(APD)を導入する。
APDは、ダウンストリームベンチマークで最小限の品質劣化を伴って、非常に高いスループットを提供する。
論文 参考訳(メタデータ) (2025-05-31T06:10:10Z) - SimMark: A Robust Sentence-Level Similarity-Based Watermarking Algorithm for Large Language Models [4.069844339028727]
SimMarkは、大規模言語モデル(LLM)のための堅牢な文レベルの透かしアルゴリズムである。
検出可能な統計的パターンを組み込んでおり、ソフトカウント機構を採用している。
我々は,LLM生成コンテンツのロバストな透かしのための新しいベンチマークをSimMarkが設定していることを示す。
論文 参考訳(メタデータ) (2025-02-05T00:21:01Z) - A Watermark for Order-Agnostic Language Models [55.89285889529492]
Pattern-markは、順序に依存しないLM用に特別に設計されたパターンベースの透かしフレームワークである。
我々は,高周波鍵パターンを持つ透かしキー列を生成するマルコフチェーン型透かし生成器を開発した。
タンパク質MPNN や CMLM などの順序に依存しない LM の評価では,パターンマークによる検出効率の向上,生成品質,ロバスト性などが示されている。
論文 参考訳(メタデータ) (2024-10-17T17:41:28Z) - Token-Specific Watermarking with Enhanced Detectability and Semantic Coherence for Large Language Models [31.062753031312006]
大規模言語モデルは、潜在的な誤報を伴う高品質な応答を生成する。
ウォーターマーキングは、テキストに隠れたマーカーを埋め込むことによって、この文脈において重要な意味を持つ。
ウォーターマーキングのための新しい多目的最適化(MOO)手法を提案する。
本手法は,検出性と意味的整合性を同時に達成する。
論文 参考訳(メタデータ) (2024-02-28T05:43:22Z) - AdjointDPM: Adjoint Sensitivity Method for Gradient Backpropagation of Diffusion Probabilistic Models [103.41269503488546]
既存のカスタマイズ方法は、事前訓練された拡散確率モデルをユーザが提供する概念に合わせるために、複数の参照例にアクセスする必要がある。
本論文は、DPMカスタマイズの課題として、生成コンテンツ上で定義された差別化可能な指標が唯一利用可能な監督基準である場合に解決することを目的とする。
本稿では,拡散モデルから新しいサンプルを初めて生成するAdjointDPMを提案する。
次に、随伴感度法を用いて、損失の勾配をモデルのパラメータにバックプロパゲートする。
論文 参考訳(メタデータ) (2023-07-20T09:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。