論文の概要: Adaptive Testing for Segmenting Watermarked Texts From Language Models
- arxiv url: http://arxiv.org/abs/2511.06645v1
- Date: Mon, 10 Nov 2025 02:50:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.0436
- Title: Adaptive Testing for Segmenting Watermarked Texts From Language Models
- Title(参考訳): 言語モデルからの透かしテキストのセグメンテーションのための適応的テスト
- Authors: Xingchi Li, Xiaochi Liu, Guanxun Li,
- Abstract要約: 大規模言語モデル(LLM)の急速な普及は、LLM生成したテキストと人間が書いたコンテンツとを区別する必要性を浮き彫りにしている。
ウォーターマーク技術は、微妙な統計信号をLCM生成テキストに埋め込んで信頼性の高い識別を可能にする。
我々は、この適応検出戦略を拡張し、与えられたテキストを透かしや非透かしに分割するより困難な問題に対処する。
- 参考スコア(独自算出の注目度): 2.5489046505746704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid adoption of large language models (LLMs), such as GPT-4 and Claude 3.5, underscores the need to distinguish LLM-generated text from human-written content to mitigate the spread of misinformation and misuse in education. One promising approach to address this issue is the watermark technique, which embeds subtle statistical signals into LLM-generated text to enable reliable identification. In this paper, we first generalize the likelihood-based LLM detection method of a previous study by introducing a flexible weighted formulation, and further adapt this approach to the inverse transform sampling method. Moving beyond watermark detection, we extend this adaptive detection strategy to tackle the more challenging problem of segmenting a given text into watermarked and non-watermarked substrings. In contrast to the approach in a previous study, which relies on accurate estimation of next-token probabilities that are highly sensitive to prompt estimation, our proposed framework removes the need for precise prompt estimation. Extensive numerical experiments demonstrate that the proposed methodology is both effective and robust in accurately segmenting texts containing a mixture of watermarked and non-watermarked content.
- Abstract(参考訳): GPT-4やClaude 3.5のような大規模言語モデル(LLM)の急速な普及は、教育における誤情報や誤用の拡散を緩和するために、LLM生成したテキストと人文コンテンツとを区別する必要性を浮き彫りにしている。
この問題に対処する1つの有望なアプローチは、微妙な統計信号をLCM生成テキストに埋め込んで信頼性の高い識別を可能にする透かし技術である。
本稿では、まず、フレキシブルな重み付き定式化を導入することで、従来の研究の確率に基づくLCM検出法を一般化し、さらに逆変換サンプリング法に適用する。
透かし検出を超えて、この適応検出戦略を拡張して、与えられたテキストを透かしや非透かしのサブストリングに分割するより難しい問題に取り組む。
提案手法は, 高速推定に非常に敏感な次トーケン確率の正確な推定に依拠する従来の手法とは対照的に, 提案手法は高精度な高速推定の必要性を排除している。
大規模な数値実験により, 提案手法は, 透かしと非透かしの混合物を含むテキストを正確に区分けする上で, 有効かつ堅牢であることが示された。
関連論文リスト
- LexiMark: Robust Watermarking via Lexical Substitutions to Enhance Membership Verification of an LLM's Textual Training Data [23.277831624562946]
LexiMarkは、テキストとドキュメント用に設計された新しい透かし技術である。
慎重に選択された高エントロピー語に対する同義語置換を組み込む。
微妙で、文脈的に適切な置換のために除去に抵抗する。
論文 参考訳(メタデータ) (2025-06-17T12:41:53Z) - In-Context Watermarks for Large Language Models [71.29952527565749]
In-Context Watermarking (ICW)は、インシデントエンジニアリングのみで生成されたテキストに透かしを埋め込む。
粒度の異なる4つのICW戦略について検討した。
本実験は,モデルに依存しない実用的な透かし手法としてのICWの実現可能性を検証するものである。
論文 参考訳(メタデータ) (2025-05-22T17:24:51Z) - Entropy-Guided Watermarking for LLMs: A Test-Time Framework for Robust and Traceable Text Generation [58.85645136534301]
サンプルテキストの既存の透かし方式は、テキスト品質の維持と各種攻撃に対する堅牢な検出とのトレードオフに直面していることが多い。
累積透かしエントロピー閾値を導入することにより,検出性とテキスト品質を両立させる新しい透かし方式を提案する。
論文 参考訳(メタデータ) (2025-04-16T14:16:38Z) - Robust Detection of Watermarks for Large Language Models Under Human Edits [27.382399391266564]
そこで本研究では,人間の編集下での透かし検出のための不適切な良性テストの形で,新しい手法を提案する。
我々は,Gumbel-GoF透かしのロバスト検出において,Tr-GoF試験が最適性を達成することを証明した。
また, Tr-GoF試験は, 適度なテキスト修正方式において, 高い検出効率が得られることを示した。
論文 参考訳(メタデータ) (2024-11-21T06:06:04Z) - Signal Watermark on Large Language Models [28.711745671275477]
本稿では,Large Language Models (LLMs) によるテキストに特定の透かしを埋め込む透かし手法を提案する。
この技術は、透かしが人間に見えないことを保証するだけでなく、モデル生成テキストの品質と文法的整合性も維持する。
提案手法は複数のLDMに対して実験的に検証され,高い検出精度を維持している。
論文 参考訳(メタデータ) (2024-10-09T04:49:03Z) - WaterSeeker: Pioneering Efficient Detection of Watermarked Segments in Large Documents [63.563031923075066]
WaterSeekerは、広範囲な自然テキストの中で、ウォーターマークされたセグメントを効率的に検出し、発見するための新しいアプローチである。
検出精度と計算効率のバランスが良くなる。
論文 参考訳(メタデータ) (2024-09-08T14:45:47Z) - Who Wrote This? The Key to Zero-Shot LLM-Generated Text Detection Is GECScore [51.65730053591696]
我々は,人文テキストがLLM生成テキストよりも文法的誤りを多く含んでいるという観察に基づく,シンプルで効果的なブラックボックスゼロショット検出手法を提案する。
実験結果から,本手法はゼロショット法や教師あり手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-05-07T12:57:01Z) - A Statistical Framework of Watermarks for Large Language Models: Pivot, Detection Efficiency and Optimal Rules [27.382399391266564]
我々は,透かしの統計的効率と強力な検出規則を推論するための枠組みを導入する。
枠組みに基づく透かしの最適検出規則を導出する。
論文 参考訳(メタデータ) (2024-04-01T17:03:41Z) - Token-Specific Watermarking with Enhanced Detectability and Semantic Coherence for Large Language Models [31.062753031312006]
大規模言語モデルは、潜在的な誤報を伴う高品質な応答を生成する。
ウォーターマーキングは、テキストに隠れたマーカーを埋め込むことによって、この文脈において重要な意味を持つ。
ウォーターマーキングのための新しい多目的最適化(MOO)手法を提案する。
本手法は,検出性と意味的整合性を同時に達成する。
論文 参考訳(メタデータ) (2024-02-28T05:43:22Z) - Towards Codable Watermarking for Injecting Multi-bits Information to LLMs [86.86436777626959]
大規模言語モデル(LLM)は、流布とリアリズムを増大させるテキストを生成する。
既存の透かし方式はエンコーディング非効率であり、多様な情報エンコーディングニーズに柔軟に対応できない。
テキスト透かしを複数ビットでカスタマイズ可能な情報を運ぶことができるCTWL (Codable Text Watermarking for LLMs) を提案する。
論文 参考訳(メタデータ) (2023-07-29T14:11:15Z) - Watermarking Conditional Text Generation for AI Detection: Unveiling
Challenges and a Semantic-Aware Watermark Remedy [52.765898203824975]
本研究では,条件付きテキスト生成と入力コンテキストの特性を考慮した意味認識型透かしアルゴリズムを提案する。
実験結果から,提案手法は様々なテキスト生成モデルに対して大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2023-07-25T20:24:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。