論文の概要: On the Empirical Power of Goodness-of-Fit Tests in Watermark Detection
- arxiv url: http://arxiv.org/abs/2510.03944v1
- Date: Sat, 04 Oct 2025 21:07:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.353066
- Title: On the Empirical Power of Goodness-of-Fit Tests in Watermark Detection
- Title(参考訳): 透かし検出における適合性試験の実証力について
- Authors: Weiqing He, Xiang Li, Tianqi Shang, Li Shen, Weijie Su, Qi Long,
- Abstract要約: 3つの一般的な透かし方式で8つのGoF試験を系統的に評価した。
その結果,GoF試験は透かし検出器の検出能力とロバスト性の両方を向上できることがわかった。
- 参考スコア(独自算出の注目度): 17.920479593691255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) raise concerns about content authenticity and integrity because they can generate human-like text at scale. Text watermarks, which embed detectable statistical signals into generated text, offer a provable way to verify content origin. Many detection methods rely on pivotal statistics that are i.i.d. under human-written text, making goodness-of-fit (GoF) tests a natural tool for watermark detection. However, GoF tests remain largely underexplored in this setting. In this paper, we systematically evaluate eight GoF tests across three popular watermarking schemes, using three open-source LLMs, two datasets, various generation temperatures, and multiple post-editing methods. We find that general GoF tests can improve both the detection power and robustness of watermark detectors. Notably, we observe that text repetition, common in low-temperature settings, gives GoF tests a unique advantage not exploited by existing methods. Our results highlight that classic GoF tests are a simple yet powerful and underused tool for watermark detection in LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、人間のようなテキストを大規模に生成できるため、コンテンツの信頼性と完全性に関する懸念を提起する。
検出可能な統計信号を生成されたテキストに埋め込むテキスト透かしは、コンテンツの起源を検証するための証明可能な方法を提供する。
多くの検出法は、人間の文章で書かれた重要な統計に頼っているため、GoF(Go-of-fit)テストは透かし検出の自然なツールである。
しかし、この設定ではGoFテストはほとんど未調査のままである。
本稿では,3つのオープンソースのLCM,2つのデータセット,様々な生成温度,複数の後編集手法を用いて,3つの一般的な透かし方式を対象とした8つのGoF試験を体系的に評価する。
一般的なGoFテストは、透かし検出器の検出能力とロバスト性の両方を改善することができる。
特に、低温設定で一般的なテキスト繰り返しは、GoFテストが既存のメソッドでは利用できない独特な利点をもたらすことを観察する。
以上の結果から,従来のGoFテストはLLMにおける透かし検出のツールとして,シンプルだが強力で未使用のツールであることがわかった。
関連論文リスト
- How Good is Post-Hoc Watermarking With Language Model Rephrasing? [43.5649433230903]
生成時のテキスト透かしは、AI生成コンテンツのトレーサビリティのために統計信号をテキストに埋め込む。
LLMが生成時透かしを適用しながら既存のテキストを書き換えるポストホック透かしについて検討する。
本手法は,書籍などのオープンエンドテキストに対して,強い検出性と意味的忠実性を実現する。
論文 参考訳(メタデータ) (2025-12-18T18:57:33Z) - Entropy-Guided Watermarking for LLMs: A Test-Time Framework for Robust and Traceable Text Generation [58.85645136534301]
サンプルテキストの既存の透かし方式は、テキスト品質の維持と各種攻撃に対する堅牢な検出とのトレードオフに直面していることが多い。
累積透かしエントロピー閾値を導入することにより,検出性とテキスト品質を両立させる新しい透かし方式を提案する。
論文 参考訳(メタデータ) (2025-04-16T14:16:38Z) - GaussMark: A Practical Approach for Structural Watermarking of Language Models [61.84270985214254]
GaussMarkは、大規模な言語モデルを透かし出すためのシンプルで効率的で比較的堅牢なスキームである。
GaussMarkは信頼性が高く、効率的で、挿入、削除、置換、ラウンドトリップ翻訳などの汚職に対して比較的堅牢であることを示す。
論文 参考訳(メタデータ) (2025-01-17T22:30:08Z) - Robust Detection of Watermarks for Large Language Models Under Human Edits [27.382399391266564]
そこで本研究では,人間の編集下での透かし検出のための不適切な良性テストの形で,新しい手法を提案する。
我々は,Gumbel-GoF透かしのロバスト検出において,Tr-GoF試験が最適性を達成することを証明した。
また, Tr-GoF試験は, 適度なテキスト修正方式において, 高い検出効率が得られることを示した。
論文 参考訳(メタデータ) (2024-11-21T06:06:04Z) - Signal Watermark on Large Language Models [28.711745671275477]
本稿では,Large Language Models (LLMs) によるテキストに特定の透かしを埋め込む透かし手法を提案する。
この技術は、透かしが人間に見えないことを保証するだけでなく、モデル生成テキストの品質と文法的整合性も維持する。
提案手法は複数のLDMに対して実験的に検証され,高い検出精度を維持している。
論文 参考訳(メタデータ) (2024-10-09T04:49:03Z) - WaterSeeker: Pioneering Efficient Detection of Watermarked Segments in Large Documents [63.563031923075066]
WaterSeekerは、広範囲な自然テキストの中で、ウォーターマークされたセグメントを効率的に検出し、発見するための新しいアプローチである。
検出精度と計算効率のバランスが良くなる。
論文 参考訳(メタデータ) (2024-09-08T14:45:47Z) - Black-Box Detection of Language Model Watermarks [1.9374282535132377]
我々は,3つの人気のある透かしスキームファミリーのパラメータを検出し,推定するための厳密な統計試験を開発した。
提案手法の有効性を,多種多様なオープンソースモデルを用いて実験的に検証した。
以上の結果から,現在の透かし方式は従来考えられていたよりも検出可能であることが示唆された。
論文 参考訳(メタデータ) (2024-05-28T08:41:30Z) - On the Reliability of Watermarks for Large Language Models [95.87476978352659]
本研究では,人間による書き直し後の透かしテキストの堅牢性,非透かしLDMによる言い換え,あるいはより長い手書き文書への混在性について検討する。
人や機械の言い回しをしても、透かしは検出可能である。
また、大きな文書に埋め込まれた透かし付きテキストの短いスパンに敏感な新しい検出手法についても検討する。
論文 参考訳(メタデータ) (2023-06-07T17:58:48Z) - Who Wrote this Code? Watermarking for Code Generation [53.24895162874416]
本稿では,機械生成テキストを検出するために,Entropy Thresholding (SWEET) を用いたSelective WatErmarkingを提案する。
実験の結果,SWEETはコード品質を著しく向上し,すべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-24T11:49:52Z) - A Watermark for Large Language Models [84.95327142027183]
本稿では,プロプライエタリな言語モデルのための透かしフレームワークを提案する。
透かしはテキストの品質に無視できない影響で埋め込むことができる。
言語モデルAPIやパラメータにアクセスすることなく、効率的なオープンソースアルゴリズムを使って検出することができる。
論文 参考訳(メタデータ) (2023-01-24T18:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。