論文の概要: WorldCup Sampling for Multi-bit LLM Watermarking
- arxiv url: http://arxiv.org/abs/2602.01752v1
- Date: Mon, 02 Feb 2026 07:36:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.982641
- Title: WorldCup Sampling for Multi-bit LLM Watermarking
- Title(参考訳): マルチビットLCMウォーターマーキングのためのWorldCupサンプリング
- Authors: Yidan Wang, Yubing Ren, Yanan Cao, Li Guo,
- Abstract要約: We propose WorldCup, a multi-bit watermarking framework for large language model (LLMs)。
WorldCupは、補完的な信号によって導かれる階層的な競合メカニズムを通じて、メッセージビットを直接トークン選択に埋め込む。
総合的な実験によると、WorldCupはキャパシティ、検出可能性、堅牢性、テキスト品質、復号化効率のバランスを保っている。
- 参考スコア(独自算出の注目度): 18.905587229433078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) generate increasingly human-like text, watermarking offers a promising solution for reliable attribution beyond mere detection. While multi-bit watermarking enables richer provenance encoding, existing methods largely extend zero-bit schemes through seed-driven steering, leading to indirect information flow, limited effective capacity, and suboptimal decoding. In this paper, we propose WorldCup, a multi-bit watermarking framework for LLMs that treats sampling as a natural communication channel and embeds message bits directly into token selection via a hierarchical competition mechanism guided by complementary signals. Moreover, WorldCup further adopts entropy-aware modulation to preserve generation quality and supports robust message recovery through confidence-aware decoding. Comprehensive experiments show that WorldCup achieves a strong balance across capacity, detectability, robustness, text quality, and decoding efficiency, consistently outperforming prior baselines and laying a solid foundation for future LLM watermarking studies.
- Abstract(参考訳): 大規模言語モデル(LLM)がますます人間的なテキストを生成するにつれて、ウォーターマーキングは単なる検出以上の信頼性の高い帰属のための有望なソリューションを提供する。
マルチビット透かしはよりリッチなプロファイランス符号化を可能にするが、既存の手法はシード駆動のステアリングを通じてゼロビットスキームを拡張し、間接的な情報フロー、有効容量の制限、最適デコーディングに繋がる。
本稿では,LLMのためのマルチビット透かしフレームワークであるWorldCupを提案する。これはサンプリングを自然な通信チャネルとして扱い,メッセージビットを直接トークン選択に埋め込む。
さらに、WorldCupは、生成品質を維持するためにエントロピー対応の変調を採用し、信頼性対応の復号化による堅牢なメッセージ回復をサポートする。
総合的な実験により、WorldCupはキャパシティ、検出性、堅牢性、テキスト品質、復号化効率に強いバランスを保ち、以前のベースラインを一貫して上回り、将来のLCM透かし研究のためのしっかりとした基盤を築き上げている。
関連論文リスト
- BiMark: Unbiased Multilayer Watermarking for Large Language Models [68.64050157343334]
テキスト品質とメッセージ埋め込み能力のバランスをとる新しい透かしフレームワークであるBiMarkを提案する。
BiMarkは、短いテキストに対して最大30%高い抽出率を達成すると同時に、低いパープレキシティで示されるテキスト品質を維持する。
論文 参考訳(メタデータ) (2025-06-19T11:08:59Z) - Enhancing Watermarking Quality for LLMs via Contextual Generation States Awareness [35.06121005075721]
プラグ・アンド・プレイ型コンテキスト生成状態認識型透かしフレームワーク(CAW)について紹介する。
まず、CAWは透かしキャパシティ評価器を内蔵し、異なるトークン位置におけるメッセージの埋め込みの影響を評価する。
提案手法によって生じる遅延を回避するために,マルチブランチプレジェネレーション機構を導入する。
論文 参考訳(メタデータ) (2025-06-09T03:53:41Z) - Entropy-Guided Watermarking for LLMs: A Test-Time Framework for Robust and Traceable Text Generation [58.85645136534301]
サンプルテキストの既存の透かし方式は、テキスト品質の維持と各種攻撃に対する堅牢な検出とのトレードオフに直面していることが多い。
累積透かしエントロピー閾値を導入することにより,検出性とテキスト品質を両立させる新しい透かし方式を提案する。
論文 参考訳(メタデータ) (2025-04-16T14:16:38Z) - SimMark: A Robust Sentence-Level Similarity-Based Watermarking Algorithm for Large Language Models [4.069844339028727]
SimMarkは、大規模言語モデル(LLM)のための堅牢な文レベルの透かしアルゴリズムである。
検出可能な統計的パターンを組み込んでおり、ソフトカウント機構を採用している。
我々は,LLM生成コンテンツのロバストな透かしのための新しいベンチマークをSimMarkが設定していることを示す。
論文 参考訳(メタデータ) (2025-02-05T00:21:01Z) - MarkLLM: An Open-Source Toolkit for LLM Watermarking [80.00466284110269]
MarkLLMは、LLMウォーターマーキングアルゴリズムを実装するためのオープンソースのツールキットである。
評価のために、MarkLLMは3つの視点にまたがる12のツールと、2種類の自動評価パイプラインを提供する。
論文 参考訳(メタデータ) (2024-05-16T12:40:01Z) - Towards Codable Watermarking for Injecting Multi-bits Information to LLMs [86.86436777626959]
大規模言語モデル(LLM)は、流布とリアリズムを増大させるテキストを生成する。
既存の透かし方式はエンコーディング非効率であり、多様な情報エンコーディングニーズに柔軟に対応できない。
テキスト透かしを複数ビットでカスタマイズ可能な情報を運ぶことができるCTWL (Codable Text Watermarking for LLMs) を提案する。
論文 参考訳(メタデータ) (2023-07-29T14:11:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。