論文の概要: On the Empirical Power of Goodness-of-Fit Tests in Watermark Detection
- arxiv url: http://arxiv.org/abs/2510.03944v1
- Date: Sat, 04 Oct 2025 21:07:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.353066
- Title: On the Empirical Power of Goodness-of-Fit Tests in Watermark Detection
- Title(参考訳): 透かし検出における適合性試験の実証力について
- Authors: Weiqing He, Xiang Li, Tianqi Shang, Li Shen, Weijie Su, Qi Long,
- Abstract要約: 3つの一般的な透かし方式で8つのGoF試験を系統的に評価した。
その結果,GoF試験は透かし検出器の検出能力とロバスト性の両方を向上できることがわかった。
- 参考スコア(独自算出の注目度): 17.920479593691255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) raise concerns about content authenticity and integrity because they can generate human-like text at scale. Text watermarks, which embed detectable statistical signals into generated text, offer a provable way to verify content origin. Many detection methods rely on pivotal statistics that are i.i.d. under human-written text, making goodness-of-fit (GoF) tests a natural tool for watermark detection. However, GoF tests remain largely underexplored in this setting. In this paper, we systematically evaluate eight GoF tests across three popular watermarking schemes, using three open-source LLMs, two datasets, various generation temperatures, and multiple post-editing methods. We find that general GoF tests can improve both the detection power and robustness of watermark detectors. Notably, we observe that text repetition, common in low-temperature settings, gives GoF tests a unique advantage not exploited by existing methods. Our results highlight that classic GoF tests are a simple yet powerful and underused tool for watermark detection in LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、人間のようなテキストを大規模に生成できるため、コンテンツの信頼性と完全性に関する懸念を提起する。
検出可能な統計信号を生成されたテキストに埋め込むテキスト透かしは、コンテンツの起源を検証するための証明可能な方法を提供する。
多くの検出法は、人間の文章で書かれた重要な統計に頼っているため、GoF(Go-of-fit)テストは透かし検出の自然なツールである。
しかし、この設定ではGoFテストはほとんど未調査のままである。
本稿では,3つのオープンソースのLCM,2つのデータセット,様々な生成温度,複数の後編集手法を用いて,3つの一般的な透かし方式を対象とした8つのGoF試験を体系的に評価する。
一般的なGoFテストは、透かし検出器の検出能力とロバスト性の両方を改善することができる。
特に、低温設定で一般的なテキスト繰り返しは、GoFテストが既存のメソッドでは利用できない独特な利点をもたらすことを観察する。
以上の結果から,従来のGoFテストはLLMにおける透かし検出のツールとして,シンプルだが強力で未使用のツールであることがわかった。
関連論文リスト
- Robust Detection of Watermarks for Large Language Models Under Human Edits [27.382399391266564]
そこで本研究では,人間の編集下での透かし検出のための不適切な良性テストの形で,新しい手法を提案する。
我々は,Gumbel-GoF透かしのロバスト検出において,Tr-GoF試験が最適性を達成することを証明した。
また, Tr-GoF試験は, 適度なテキスト修正方式において, 高い検出効率が得られることを示した。
論文 参考訳(メタデータ) (2024-11-21T06:06:04Z) - Signal Watermark on Large Language Models [28.711745671275477]
本稿では,Large Language Models (LLMs) によるテキストに特定の透かしを埋め込む透かし手法を提案する。
この技術は、透かしが人間に見えないことを保証するだけでなく、モデル生成テキストの品質と文法的整合性も維持する。
提案手法は複数のLDMに対して実験的に検証され,高い検出精度を維持している。
論文 参考訳(メタデータ) (2024-10-09T04:49:03Z) - On the Reliability of Watermarks for Large Language Models [95.87476978352659]
本研究では,人間による書き直し後の透かしテキストの堅牢性,非透かしLDMによる言い換え,あるいはより長い手書き文書への混在性について検討する。
人や機械の言い回しをしても、透かしは検出可能である。
また、大きな文書に埋め込まれた透かし付きテキストの短いスパンに敏感な新しい検出手法についても検討する。
論文 参考訳(メタデータ) (2023-06-07T17:58:48Z) - A Watermark for Large Language Models [84.95327142027183]
本稿では,プロプライエタリな言語モデルのための透かしフレームワークを提案する。
透かしはテキストの品質に無視できない影響で埋め込むことができる。
言語モデルAPIやパラメータにアクセスすることなく、効率的なオープンソースアルゴリズムを使って検出することができる。
論文 参考訳(メタデータ) (2023-01-24T18:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。