論文の概要: Watermarks for Language Models via Probabilistic Automata
- arxiv url: http://arxiv.org/abs/2512.10185v1
- Date: Thu, 11 Dec 2025 00:49:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.136316
- Title: Watermarks for Language Models via Probabilistic Automata
- Title(参考訳): 確率的オートマタによる言語モデルの透かし
- Authors: Yangkun Wang, Jingbo Shang,
- Abstract要約: 確率的オートマトンによって構築された新しいタイプの透かし方式を導入する。
i)指数的生成の多様性と計算効率の実践的スキーム,および(ii)暗号的仮定の下での形式的検出不可能性を保証する理論的構成を示す。
- 参考スコア(独自算出の注目度): 54.687037560547765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A recent watermarking scheme for language models achieves distortion-free embedding and robustness to edit-distance attacks. However, it suffers from limited generation diversity and high detection overhead. In parallel, recent research has focused on undetectability, a property ensuring that watermarks remain difficult for adversaries to detect and spoof. In this work, we introduce a new class of watermarking schemes constructed through probabilistic automata. We present two instantiations: (i) a practical scheme with exponential generation diversity and computational efficiency, and (ii) a theoretical construction with formal undetectability guarantees under cryptographic assumptions. Extensive experiments on LLaMA-3B and Mistral-7B validate the superior performance of our scheme in terms of robustness and efficiency.
- Abstract(参考訳): 近年の言語モデルの透かし方式は、歪みのない埋め込みと、編集距離攻撃に対する堅牢性を実現する。
しかし、それは限られた世代多様性と高い検出オーバーヘッドに悩まされている。
対照的に、最近の研究は、敵が検出し、スプーフするのが困難であることを確実にする特性である、発見不能性に焦点を当てている。
本研究では,確率的オートマトンによって構築された新しいタイプの透かし方式を紹介する。
我々は2つの瞬間を提示する。
一 指数生成の多様性及び計算効率の実践的スキーム
(ii) 暗号的前提の下で、形式的不検出性を保証する理論的構成。
LLaMA-3B と Mistral-7B の広範囲な実験により、ロバスト性と効率性の観点から、我々のスキームの優れた性能が検証された。
関連論文リスト
- An Ensemble Framework for Unbiased Language Model Watermarking [60.99969104552168]
本研究では,アンサンブル・フレームワークであるENSを提案する。
ENSは複数の独立した透かしインスタンスを順次構成し、それぞれ異なるキーによって管理され、透かし信号を増幅する。
実験的な評価では、ENSは信頼できる検出に必要なトークンの数を大幅に減らし、平滑化やパラフレージング攻撃に対する耐性を高めている。
論文 参考訳(メタデータ) (2025-09-28T19:37:44Z) - Character-Level Perturbations Disrupt LLM Watermarks [64.60090923837701]
我々は,Large Language Model (LLM)ウォーターマーキングのためのシステムモデルを定式化する。
我々は、透かし検出器への限られたアクセスに制約された2つの現実的な脅威モデルの特徴付けを行う。
我々は,最も制限的な脅威モデルの下で,キャラクタレベルの摂動が透かし除去に著しく有効であることを実証した。
現実的な制約下での透かし除去における文字レベルの摂動の優位性と遺伝的アルゴリズム(GA)の有効性を実験的に検証した。
論文 参考訳(メタデータ) (2025-09-11T02:50:07Z) - Improving Detection of Watermarked Language Models [31.772364827073808]
本研究では,透かし検出器と非透かし検出器を併用することにより,検出を改善できるかどうかを検討する。
本研究では,透かし検出器と非透かし検出器を組み合わせることで,検出を改善できるかどうかを検討する。
論文 参考訳(メタデータ) (2025-08-18T17:43:06Z) - GaussMark: A Practical Approach for Structural Watermarking of Language Models [61.84270985214254]
GaussMarkは、大規模な言語モデルを透かし出すためのシンプルで効率的で比較的堅牢なスキームである。
GaussMarkは信頼性が高く、効率的で、挿入、削除、置換、ラウンドトリップ翻訳などの汚職に対して比較的堅牢であることを示す。
論文 参考訳(メタデータ) (2025-01-17T22:30:08Z) - Theoretically Grounded Framework for LLM Watermarking: A Distribution-Adaptive Approach [53.32564762183639]
大規模言語モデル(LLM)の透かしのための新しい統一的理論フレームワークを導入する。
本研究の目的は,最悪の偽陽性率(FPR)の制御とテキスト品質の歪みを維持しつつ,検出性能を最大化することである。
モデル非依存と効率性に代えて代理モデルを利用する歪みのない分散適応型透かしアルゴリズム(DAWA)を提案する。
論文 参考訳(メタデータ) (2024-10-03T18:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。