論文の概要: WaterSearch: A Quality-Aware Search-based Watermarking Framework for Large Language Models
- arxiv url: http://arxiv.org/abs/2512.00837v1
- Date: Sun, 30 Nov 2025 11:11:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.445748
- Title: WaterSearch: A Quality-Aware Search-based Watermarking Framework for Large Language Models
- Title(参考訳): WaterSearch: 大規模言語モデルのための品質に配慮した検索ベースの透かしフレームワーク
- Authors: Yukang Lin, Jiahao Shao, Shuoran Jiang, Wentao Zhu, Bingjie Lu, Xiangping Wu, Joanna Siebert, Qingcai Chen,
- Abstract要約: WaterSearchは文レベルの検索ベースの透かしフレームワークである。
WaterSearchは,1)分布の忠実度と2)透かし信号特性の2つの重要な側面を共同最適化することにより,テキスト品質を向上させる。
本手法は,最先端のベースラインに対して平均51.01%の性能向上を実現する。
- 参考スコア(独自算出の注目度): 17.137667672391725
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Watermarking acts as a critical safeguard in text generated by Large Language Models (LLMs). By embedding identifiable signals into model outputs, watermarking enables reliable attribution and enhances the security of machine-generated content. Existing approaches typically embed signals by manipulating token generation probabilities. Despite their effectiveness, these methods inherently face a trade-off between detectability and text quality: the signal strength and randomness required for robust watermarking tend to degrade the performance of downstream tasks. In this paper, we design a novel embedding scheme that controls seed pools to facilitate diverse parallel generation of watermarked text. Based on that scheme, we propose WaterSearch, a sentence-level, search-based watermarking framework adaptable to a wide range of existing methods. WaterSearch enhances text quality by jointly optimizing two key aspects: 1) distribution fidelity and 2) watermark signal characteristics. Furthermore, WaterSearch is complemented by a sentence-level detection method with strong attack robustness. We evaluate our method on three popular LLMs across ten diverse tasks. Extensive experiments demonstrate that our method achieves an average performance improvement of 51.01\% over state-of-the-art baselines at a watermark detectability strength of 95\%. In challenging scenarios such as short text generation and low-entropy output generation, our method yields performance gains of 47.78\% and 36.47\%, respectively. Moreover, under different attack senarios including insertion, synonym substitution and paraphrase attasks, WaterSearch maintains high detectability, further validating its robust anti-attack capabilities. Our code is available at \href{https://github.com/Yukang-Lin/WaterSearch}{https://github.com/Yukang-Lin/WaterSearch}.
- Abstract(参考訳): ウォーターマーキングは、Large Language Models (LLMs) が生成したテキストにおける重要なセーフガードとして機能する。
識別可能な信号をモデル出力に埋め込むことで、ウォーターマーキングは信頼性の高い帰属を可能にし、マシン生成コンテンツのセキュリティを高める。
既存のアプローチは通常、トークン生成確率を操作することで信号を埋め込む。
その効果にもかかわらず、これらの手法は本質的には、検出可能性とテキスト品質のトレードオフに直面している: 堅牢な透かしに必要とされる信号強度とランダム性は、下流タスクのパフォーマンスを低下させる傾向にある。
本稿では,多様な透かしテキストの並列生成を容易にするために,シードプールを制御する新しい埋め込み方式を設計する。
そこで本研究では, 文レベルの検索型透かしフレームワークであるWaterSearchを提案する。
WaterSearchは2つの重要な側面を共同で最適化することで、テキスト品質を向上させる。
1)配当の正当性と
2)透かし信号の特性
さらに、ウォーター検索は強力な攻撃堅牢性を持つ文レベルの検出方法によって補完される。
提案手法を10種類のタスクにまたがる3つのLLM上で評価した。
その結果, 透かし検出強度95 %において, 最先端のベースラインよりも平均51.01 %の性能向上を達成できることが実証された。
短文生成や低エントロピー出力生成といった難解なシナリオでは, それぞれ47.78\%, 36.47\%の性能向上が得られる。
さらに、挿入、同義語置換、パラフレーズ attask などの異なる攻撃セネリアの下では、WaterSearch は高い検出性を維持し、その堅牢なアンチ攻撃能力を検証している。
私たちのコードは \href{https://github.com/Yukang-Lin/WaterSearch}{https://github.com/Yukang-Lin/WaterSearch} で利用可能です。
関連論文リスト
- Entropy-Guided Watermarking for LLMs: A Test-Time Framework for Robust and Traceable Text Generation [58.85645136534301]
サンプルテキストの既存の透かし方式は、テキスト品質の維持と各種攻撃に対する堅牢な検出とのトレードオフに直面していることが多い。
累積透かしエントロピー閾値を導入することにより,検出性とテキスト品質を両立させる新しい透かし方式を提案する。
論文 参考訳(メタデータ) (2025-04-16T14:16:38Z) - GaussMark: A Practical Approach for Structural Watermarking of Language Models [61.84270985214254]
GaussMarkは、大規模な言語モデルを透かし出すためのシンプルで効率的で比較的堅牢なスキームである。
GaussMarkは信頼性が高く、効率的で、挿入、削除、置換、ラウンドトリップ翻訳などの汚職に対して比較的堅牢であることを示す。
論文 参考訳(メタデータ) (2025-01-17T22:30:08Z) - Signal Watermark on Large Language Models [28.711745671275477]
本稿では,Large Language Models (LLMs) によるテキストに特定の透かしを埋め込む透かし手法を提案する。
この技術は、透かしが人間に見えないことを保証するだけでなく、モデル生成テキストの品質と文法的整合性も維持する。
提案手法は複数のLDMに対して実験的に検証され,高い検出精度を維持している。
論文 参考訳(メタデータ) (2024-10-09T04:49:03Z) - Duwak: Dual Watermarks in Large Language Models [49.00264962860555]
トークン確率分布とサンプリングスキームの両方に二重秘密パターンを埋め込むことにより、透かしの効率と品質を向上させるために、Duwakを提案する。
Llama2でDuwakを4つの最先端透かし技術と組み合わせて評価した。
論文 参考訳(メタデータ) (2024-03-12T16:25:38Z) - Adaptive Text Watermark for Large Language Models [8.100123266517299]
プロンプトやモデルの知識を必要とせずに、強力なセキュリティ、堅牢性、および透かしを検出する能力を維持しつつ、高品質な透かしテキストを生成することは困難である。
本稿では,この問題に対処するための適応型透かし手法を提案する。
論文 参考訳(メタデータ) (2024-01-25T03:57:12Z) - Improving the Generation Quality of Watermarked Large Language Models
via Word Importance Scoring [81.62249424226084]
トークンレベルの透かしは、トークン確率分布を変更して生成されたテキストに透かしを挿入する。
この透かしアルゴリズムは、生成中のロジットを変化させ、劣化したテキストの品質につながる可能性がある。
We propose to improve the quality of texts generated by a watermarked language model by Watermarking with Importance Scoring (WIS)。
論文 参考訳(メタデータ) (2023-11-16T08:36:00Z) - WaterBench: Towards Holistic Evaluation of Watermarks for Large Language Models [48.19623266082828]
WaterBenchは、大規模言語モデル(LLM)における透かしの最初の包括的なベンチマークである。
LLM透かしの最初の総合的なベンチマークであるWaterBenchを紹介し、3つの重要な要素を設計する。
オープンソースの透かしを2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/2ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/3ドル/
論文 参考訳(メタデータ) (2023-11-13T08:09:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。