論文の概要: How Good is Post-Hoc Watermarking With Language Model Rephrasing?
- arxiv url: http://arxiv.org/abs/2512.16904v1
- Date: Thu, 18 Dec 2025 18:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.2432
- Title: How Good is Post-Hoc Watermarking With Language Model Rephrasing?
- Title(参考訳): 言語モデルの言い換えによるポストホックなウォーターマーキングはどんなものか?
- Authors: Pierre Fernandez, Tom Sander, Hady Elsahar, Hongyan Chang, Tomáš Souček, Valeriu Lacatusu, Tuan Tran, Sylvestre-Alvise Rebuffi, Alexandre Mourachko,
- Abstract要約: 生成時のテキスト透かしは、AI生成コンテンツのトレーサビリティのために統計信号をテキストに埋め込む。
LLMが生成時透かしを適用しながら既存のテキストを書き換えるポストホック透かしについて検討する。
本手法は,書籍などのオープンエンドテキストに対して,強い検出性と意味的忠実性を実現する。
- 参考スコア(独自算出の注目度): 43.5649433230903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generation-time text watermarking embeds statistical signals into text for traceability of AI-generated content. We explore *post-hoc watermarking* where an LLM rewrites existing text while applying generation-time watermarking, to protect copyrighted documents, or detect their use in training or RAG via watermark radioactivity. Unlike generation-time approaches, which is constrained by how LLMs are served, this setting offers additional degrees of freedom for both generation and detection. We investigate how allocating compute (through larger rephrasing models, beam search, multi-candidate generation, or entropy filtering at detection) affects the quality-detectability trade-off. Our strategies achieve strong detectability and semantic fidelity on open-ended text such as books. Among our findings, the simple Gumbel-max scheme surprisingly outperforms more recent alternatives under nucleus sampling, and most methods benefit significantly from beam search. However, most approaches struggle when watermarking verifiable text such as code, where we counterintuitively find that smaller models outperform larger ones. This study reveals both the potential and limitations of post-hoc watermarking, laying groundwork for practical applications and future research.
- Abstract(参考訳): 生成時のテキスト透かしは、AI生成コンテンツのトレーサビリティのために統計信号をテキストに埋め込む。
LLMは、世代間透かしを適用しながら既存のテキストを書き直したり、著作権のある文書を保護したり、透かし放射能によるトレーニングやRAGの使用を検出する。
LLMの提供する方法に制約がある世代時アプローチとは異なり、この設定は生成と検出の両方にさらなる自由度を提供する。
計算(より大きな言い換えモデル、ビームサーチ、マルチカンジネート生成、エントロピーフィルタリング)が品質・検出可能性のトレードオフにどのように影響するかを検討する。
本手法は,書籍などのオープンエンドテキストに対して,強い検出性と意味的忠実性を実現する。
我々の発見の中では、単純なガンベル-マックス法は、より最近の核サンプリング法よりも驚くほど優れており、ほとんどの方法がビームサーチの恩恵を受けている。
しかし、ほとんどのアプローチは、コードのような検証可能なテキストを透かし、より小さなモデルの方が大きなテキストより優れていることを意図せずに発見するときに苦労します。
本研究では,ポストホックウォーターマーキングの可能性と限界,実用的応用のための敷設基盤,今後の研究について述べる。
関連論文リスト
- Entropy-Guided Watermarking for LLMs: A Test-Time Framework for Robust and Traceable Text Generation [58.85645136534301]
サンプルテキストの既存の透かし方式は、テキスト品質の維持と各種攻撃に対する堅牢な検出とのトレードオフに直面していることが多い。
累積透かしエントロピー閾値を導入することにより,検出性とテキスト品質を両立させる新しい透かし方式を提案する。
論文 参考訳(メタデータ) (2025-04-16T14:16:38Z) - GaussMark: A Practical Approach for Structural Watermarking of Language Models [61.84270985214254]
GaussMarkは、大規模な言語モデルを透かし出すためのシンプルで効率的で比較的堅牢なスキームである。
GaussMarkは信頼性が高く、効率的で、挿入、削除、置換、ラウンドトリップ翻訳などの汚職に対して比較的堅牢であることを示す。
論文 参考訳(メタデータ) (2025-01-17T22:30:08Z) - Token-Specific Watermarking with Enhanced Detectability and Semantic Coherence for Large Language Models [31.062753031312006]
大規模言語モデルは、潜在的な誤報を伴う高品質な応答を生成する。
ウォーターマーキングは、テキストに隠れたマーカーを埋め込むことによって、この文脈において重要な意味を持つ。
ウォーターマーキングのための新しい多目的最適化(MOO)手法を提案する。
本手法は,検出性と意味的整合性を同時に達成する。
論文 参考訳(メタデータ) (2024-02-28T05:43:22Z) - Downstream Trade-offs of a Family of Text Watermarks [25.408313192999504]
多様なタスク群に対する3つの異なる戦略を用いて,LLMの性能評価を行った。
電子透かしは全てのタスクにおいて LLM の有効性を著しく低下させる可能性がある。
この結果から,透かしモデルを用いた場合,ユーザが認識すべきトレードオフが浮き彫りになった。
論文 参考訳(メタデータ) (2023-11-16T11:44:58Z) - Who Wrote this Code? Watermarking for Code Generation [53.24895162874416]
本稿では,機械生成テキストを検出するために,Entropy Thresholding (SWEET) を用いたSelective WatErmarkingを提案する。
実験の結果,SWEETはコード品質を著しく向上し,すべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-24T11:49:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。