論文の概要: Optimal Estimation of Watermark Proportions in Hybrid AI-Human Texts
- arxiv url: http://arxiv.org/abs/2506.22343v1
- Date: Fri, 27 Jun 2025 15:53:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.273873
- Title: Optimal Estimation of Watermark Proportions in Hybrid AI-Human Texts
- Title(参考訳): ハイブリッドAI-Humanテキストにおける透かしの最適推定
- Authors: Xiang Li, Garrett Wen, Weiqing He, Jiayuan Wu, Qi Long, Weijie J. Su,
- Abstract要約: 本稿では,混合ソーステキストにおける透かし比率を最適に推定する問題に対処する。
我々は、このパラメータが特定の透かしスキームで特定可能であることさえなく、一貫して推定可能であることを示します。
本稿では,この手法の効率的な推定手法を提案する。
- 参考スコア(独自算出の注目度): 24.10512219129669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text watermarks in large language models (LLMs) are an increasingly important tool for detecting synthetic text and distinguishing human-written content from LLM-generated text. While most existing studies focus on determining whether entire texts are watermarked, many real-world scenarios involve mixed-source texts, which blend human-written and watermarked content. In this paper, we address the problem of optimally estimating the watermark proportion in mixed-source texts. We cast this problem as estimating the proportion parameter in a mixture model based on \emph{pivotal statistics}. First, we show that this parameter is not even identifiable in certain watermarking schemes, let alone consistently estimable. In stark contrast, for watermarking methods that employ continuous pivotal statistics for detection, we demonstrate that the proportion parameter is identifiable under mild conditions. We propose efficient estimators for this class of methods, which include several popular unbiased watermarks as examples, and derive minimax lower bounds for any measurable estimator based on pivotal statistics, showing that our estimators achieve these lower bounds. Through evaluations on both synthetic data and mixed-source text generated by open-source models, we demonstrate that our proposed estimators consistently achieve high estimation accuracy.
- Abstract(参考訳): 大規模言語モデル(LLM)におけるテキスト透かしは、合成テキストを検出し、LLM生成テキストと人間の書き起こしコンテンツを区別する上で、ますます重要なツールである。
既存のほとんどの研究は、全文がウォーターマークされているかどうかを決定することに重点を置いているが、現実のシナリオの多くは、人間とウォーターマークが混ざった混在したテキストを含んでいる。
本稿では,混合ソーステキストにおける透かし比率を最適に推定する問題に対処する。
この問題は, 混合モデルにおける比例パラメータを, \emph{pivotal statistics} に基づいて推定するものである。
まず、このパラメータがある種の透かしスキームでは特定できないことを示します。
対照的に,検出のための連続的なピボット統計を用いた透かし法では,軽度条件下で比例パラメータが識別可能であることを示す。
本稿では,この手法の効率的な推定手法を提案する。この手法は,いくつかの一般的な非バイアスな透かしを例に挙げた上で,その評価値に基づいて測定可能な任意の推定値に対して,最小値の下限を導出し,これらの下限を推定することを示す。
オープンソースモデルが生成した合成データと混合オープンソーステキストの両方の評価を通じて,提案した推定器が常に高い推定精度を達成できることを実証した。
関連論文リスト
- Optimized Couplings for Watermarking Large Language Models [8.585779208433465]
大規模言語モデル(LLM)は、多くの場合、人間が生成したコンテンツと区別できないようなテキストを生成することができる。
本稿では,テキスト透かしをワンショットで解析する。
論文 参考訳(メタデータ) (2025-05-13T18:08:12Z) - Entropy-Guided Watermarking for LLMs: A Test-Time Framework for Robust and Traceable Text Generation [58.85645136534301]
サンプルテキストの既存の透かし方式は、テキスト品質の維持と各種攻撃に対する堅牢な検出とのトレードオフに直面していることが多い。
累積透かしエントロピー閾値を導入することにより,検出性とテキスト品質を両立させる新しい透かし方式を提案する。
論文 参考訳(メタデータ) (2025-04-16T14:16:38Z) - DERMARK: A Dynamic, Efficient and Robust Multi-bit Watermark for Large Language Models [18.023143082876015]
動的,効率的,堅牢なマルチビット透かし方式であるDERMARKを提案する。
DERMARKはテキストを各ビットの埋め込みごとに異なる長さのセグメントに分割し、テキストの容量に適応的に適合する。
これは、透かし抽出損失を最小限に抑えて、テキスト編集に対して無視できるオーバーヘッドと堅牢な性能で実現される。
論文 参考訳(メタデータ) (2025-02-04T11:23:49Z) - A Statistical Framework of Watermarks for Large Language Models: Pivot, Detection Efficiency and Optimal Rules [27.678152860666163]
我々は,透かしの統計的効率と強力な検出規則を推論するための枠組みを導入する。
枠組みに基づく透かしの最適検出規則を導出する。
論文 参考訳(メタデータ) (2024-04-01T17:03:41Z) - Token-Specific Watermarking with Enhanced Detectability and Semantic Coherence for Large Language Models [31.062753031312006]
大規模言語モデルは、潜在的な誤報を伴う高品質な応答を生成する。
ウォーターマーキングは、テキストに隠れたマーカーを埋め込むことによって、この文脈において重要な意味を持つ。
ウォーターマーキングのための新しい多目的最適化(MOO)手法を提案する。
本手法は,検出性と意味的整合性を同時に達成する。
論文 参考訳(メタデータ) (2024-02-28T05:43:22Z) - Improving the Generation Quality of Watermarked Large Language Models
via Word Importance Scoring [81.62249424226084]
トークンレベルの透かしは、トークン確率分布を変更して生成されたテキストに透かしを挿入する。
この透かしアルゴリズムは、生成中のロジットを変化させ、劣化したテキストの品質につながる可能性がある。
We propose to improve the quality of texts generated by a watermarked language model by Watermarking with Importance Scoring (WIS)。
論文 参考訳(メタデータ) (2023-11-16T08:36:00Z) - Language Model Decoding as Direct Metrics Optimization [87.68281625776282]
現在の復号法は、異なる側面にわたる人間のテキストと整合するテキストを生成するのに苦労している。
本研究では,言語モデルからの復号化を最適化問題として,期待される性能と人間のテキストとの厳密なマッチングを目的とした。
この誘導分布は,人間のテキストの難易度を向上させることが保証されていることを証明し,人間のテキストの基本的な分布に対するより良い近似を示唆する。
論文 参考訳(メタデータ) (2023-10-02T09:35:27Z) - MAUVE Scores for Generative Models: Theory and Practice [95.86006777961182]
本報告では,テキストや画像の生成モデルで発生するような分布のペア間の比較尺度であるMAUVEについて述べる。
我々は、MAUVEが人間の文章の分布と現代のニューラル言語モデルとのギャップを定量化できることを発見した。
我々は、MAUVEが既存のメトリクスと同等以上の画像の既知の特性を識別できることを視覚領域で実証する。
論文 参考訳(メタデータ) (2022-12-30T07:37:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。