論文の概要: How Good is Post-Hoc Watermarking With Language Model Rephrasing?
- arxiv url: http://arxiv.org/abs/2512.16904v1
- Date: Thu, 18 Dec 2025 18:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.2432
- Title: How Good is Post-Hoc Watermarking With Language Model Rephrasing?
- Title(参考訳): 言語モデルの言い換えによるポストホックなウォーターマーキングはどんなものか?
- Authors: Pierre Fernandez, Tom Sander, Hady Elsahar, Hongyan Chang, Tomáš Souček, Valeriu Lacatusu, Tuan Tran, Sylvestre-Alvise Rebuffi, Alexandre Mourachko,
- Abstract要約: 生成時のテキスト透かしは、AI生成コンテンツのトレーサビリティのために統計信号をテキストに埋め込む。
LLMが生成時透かしを適用しながら既存のテキストを書き換えるポストホック透かしについて検討する。
本手法は,書籍などのオープンエンドテキストに対して,強い検出性と意味的忠実性を実現する。
- 参考スコア(独自算出の注目度): 43.5649433230903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generation-time text watermarking embeds statistical signals into text for traceability of AI-generated content. We explore *post-hoc watermarking* where an LLM rewrites existing text while applying generation-time watermarking, to protect copyrighted documents, or detect their use in training or RAG via watermark radioactivity. Unlike generation-time approaches, which is constrained by how LLMs are served, this setting offers additional degrees of freedom for both generation and detection. We investigate how allocating compute (through larger rephrasing models, beam search, multi-candidate generation, or entropy filtering at detection) affects the quality-detectability trade-off. Our strategies achieve strong detectability and semantic fidelity on open-ended text such as books. Among our findings, the simple Gumbel-max scheme surprisingly outperforms more recent alternatives under nucleus sampling, and most methods benefit significantly from beam search. However, most approaches struggle when watermarking verifiable text such as code, where we counterintuitively find that smaller models outperform larger ones. This study reveals both the potential and limitations of post-hoc watermarking, laying groundwork for practical applications and future research.
- Abstract(参考訳): 生成時のテキスト透かしは、AI生成コンテンツのトレーサビリティのために統計信号をテキストに埋め込む。
LLMは、世代間透かしを適用しながら既存のテキストを書き直したり、著作権のある文書を保護したり、透かし放射能によるトレーニングやRAGの使用を検出する。
LLMの提供する方法に制約がある世代時アプローチとは異なり、この設定は生成と検出の両方にさらなる自由度を提供する。
計算(より大きな言い換えモデル、ビームサーチ、マルチカンジネート生成、エントロピーフィルタリング)が品質・検出可能性のトレードオフにどのように影響するかを検討する。
本手法は,書籍などのオープンエンドテキストに対して,強い検出性と意味的忠実性を実現する。
我々の発見の中では、単純なガンベル-マックス法は、より最近の核サンプリング法よりも驚くほど優れており、ほとんどの方法がビームサーチの恩恵を受けている。
しかし、ほとんどのアプローチは、コードのような検証可能なテキストを透かし、より小さなモデルの方が大きなテキストより優れていることを意図せずに発見するときに苦労します。
本研究では,ポストホックウォーターマーキングの可能性と限界,実用的応用のための敷設基盤,今後の研究について述べる。
関連論文リスト
- In-Context Watermarks for Large Language Models [71.29952527565749]
In-Context Watermarking (ICW)は、インシデントエンジニアリングのみで生成されたテキストに透かしを埋め込む。
粒度の異なる4つのICW戦略について検討した。
本実験は,モデルに依存しない実用的な透かし手法としてのICWの実現可能性を検証するものである。
論文 参考訳(メタデータ) (2025-05-22T17:24:51Z) - Entropy-Guided Watermarking for LLMs: A Test-Time Framework for Robust and Traceable Text Generation [58.85645136534301]
サンプルテキストの既存の透かし方式は、テキスト品質の維持と各種攻撃に対する堅牢な検出とのトレードオフに直面していることが多い。
累積透かしエントロピー閾値を導入することにより,検出性とテキスト品質を両立させる新しい透かし方式を提案する。
論文 参考訳(メタデータ) (2025-04-16T14:16:38Z) - GaussMark: A Practical Approach for Structural Watermarking of Language Models [61.84270985214254]
GaussMarkは、大規模な言語モデルを透かし出すためのシンプルで効率的で比較的堅牢なスキームである。
GaussMarkは信頼性が高く、効率的で、挿入、削除、置換、ラウンドトリップ翻訳などの汚職に対して比較的堅牢であることを示す。
論文 参考訳(メタデータ) (2025-01-17T22:30:08Z) - Signal Watermark on Large Language Models [28.711745671275477]
本稿では,Large Language Models (LLMs) によるテキストに特定の透かしを埋め込む透かし手法を提案する。
この技術は、透かしが人間に見えないことを保証するだけでなく、モデル生成テキストの品質と文法的整合性も維持する。
提案手法は複数のLDMに対して実験的に検証され,高い検出精度を維持している。
論文 参考訳(メタデータ) (2024-10-09T04:49:03Z) - Black-Box Detection of Language Model Watermarks [1.9374282535132377]
我々は,3つの人気のある透かしスキームファミリーのパラメータを検出し,推定するための厳密な統計試験を開発した。
提案手法の有効性を,多種多様なオープンソースモデルを用いて実験的に検証した。
以上の結果から,現在の透かし方式は従来考えられていたよりも検出可能であることが示唆された。
論文 参考訳(メタデータ) (2024-05-28T08:41:30Z) - Token-Specific Watermarking with Enhanced Detectability and Semantic Coherence for Large Language Models [31.062753031312006]
大規模言語モデルは、潜在的な誤報を伴う高品質な応答を生成する。
ウォーターマーキングは、テキストに隠れたマーカーを埋め込むことによって、この文脈において重要な意味を持つ。
ウォーターマーキングのための新しい多目的最適化(MOO)手法を提案する。
本手法は,検出性と意味的整合性を同時に達成する。
論文 参考訳(メタデータ) (2024-02-28T05:43:22Z) - Provably Robust Multi-bit Watermarking for AI-generated Text [37.21416140194606]
大規模言語モデル(LLM)は、人間の言語に似たテキストを生成する顕著な能力を示した。
犯罪者が偽ニュースやフィッシングメールなどの偽装コンテンツを作成するために悪用することもある。
ウォーターマーキングはこれらの懸念に対処するための重要なテクニックであり、メッセージをテキストに埋め込む。
論文 参考訳(メタデータ) (2024-01-30T08:46:48Z) - Downstream Trade-offs of a Family of Text Watermarks [25.408313192999504]
多様なタスク群に対する3つの異なる戦略を用いて,LLMの性能評価を行った。
電子透かしは全てのタスクにおいて LLM の有効性を著しく低下させる可能性がある。
この結果から,透かしモデルを用いた場合,ユーザが認識すべきトレードオフが浮き彫りになった。
論文 参考訳(メタデータ) (2023-11-16T11:44:58Z) - Watermarking Conditional Text Generation for AI Detection: Unveiling
Challenges and a Semantic-Aware Watermark Remedy [52.765898203824975]
本研究では,条件付きテキスト生成と入力コンテキストの特性を考慮した意味認識型透かしアルゴリズムを提案する。
実験結果から,提案手法は様々なテキスト生成モデルに対して大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2023-07-25T20:24:22Z) - Who Wrote this Code? Watermarking for Code Generation [53.24895162874416]
本稿では,機械生成テキストを検出するために,Entropy Thresholding (SWEET) を用いたSelective WatErmarkingを提案する。
実験の結果,SWEETはコード品質を著しく向上し,すべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-24T11:49:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。