論文の概要: CATMark: A Context-Aware Thresholding Framework for Robust Cross-Task Watermarking in Large Language Models
- arxiv url: http://arxiv.org/abs/2510.02342v1
- Date: Sat, 27 Sep 2025 03:43:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.01979
- Title: CATMark: A Context-Aware Thresholding Framework for Robust Cross-Task Watermarking in Large Language Models
- Title(参考訳): CATMark: 大規模言語モデルにおけるロバストなクロスタスク透かしのためのコンテキスト認識型閾値フレームワーク
- Authors: Yu Zhang, Shuliang Liu, Xu Yang, Xuming Hu,
- Abstract要約: 本研究では,リアルタイムな意味的文脈に基づく透かし強度を動的に調整する新しいフレームワークを提案する。
$myalgo$は、ロジットクラスタリングを使用してテキスト生成をセマンティックステートに分割し、コンテキスト対応のエントロピーしきい値を確立する。
実験によると、$myalgo$は、検出精度を犠牲にすることなく、クロスタスクのテキスト品質を改善する。
- 参考スコア(独自算出の注目度): 37.67547464259489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Watermarking algorithms for Large Language Models (LLMs) effectively identify machine-generated content by embedding and detecting hidden statistical features in text. However, such embedding leads to a decline in text quality, especially in low-entropy scenarios where performance needs improvement. Existing methods that rely on entropy thresholds often require significant computational resources for tuning and demonstrate poor adaptability to unknown or cross-task generation scenarios. We propose \textbf{C}ontext-\textbf{A}ware \textbf{T}hreshold watermarking ($\myalgo$), a novel framework that dynamically adjusts watermarking intensity based on real-time semantic context. $\myalgo$ partitions text generation into semantic states using logits clustering, establishing context-aware entropy thresholds that preserve fidelity in structured content while embedding robust watermarks. Crucially, it requires no pre-defined thresholds or task-specific tuning. Experiments show $\myalgo$ improves text quality in cross-tasks without sacrificing detection accuracy.
- Abstract(参考訳): 大規模言語モデル(LLM)のための透かしアルゴリズムは、テキストに隠れた統計的特徴を埋め込んで検出することにより、機械生成コンテンツを効果的に識別する。
しかし、このような埋め込みは、特にパフォーマンス改善が必要な低エントロピーシナリオにおいて、テキスト品質の低下につながる。
エントロピーしきい値に依存する既存の手法は、未知またはクロスタスク生成シナリオへの適応性が低いことを示すため、チューニングのための重要な計算資源を必要とすることが多い。
本稿では,リアルタイムなセマンティックコンテキストに基づいて透かし強度を動的に調整する新しいフレームワークである。
$\myalgo$は、ロジットクラスタリングを使用してテキスト生成をセマンティックステートに分割し、堅牢な透かしを埋め込みながら構造化コンテンツの忠実性を保存するコンテキスト認識エントロピーしきい値を確立する。
重要なことは、事前に定義されたしきい値やタスク固有のチューニングは必要ありません。
実験によると、$\myalgo$は、検出精度を犠牲にすることなく、クロスタスクのテキスト品質を改善する。
関連論文リスト
- Entropy-Guided Watermarking for LLMs: A Test-Time Framework for Robust and Traceable Text Generation [58.85645136534301]
サンプルテキストの既存の透かし方式は、テキスト品質の維持と各種攻撃に対する堅牢な検出とのトレードオフに直面していることが多い。
累積透かしエントロピー閾値を導入することにより,検出性とテキスト品質を両立させる新しい透かし方式を提案する。
論文 参考訳(メタデータ) (2025-04-16T14:16:38Z) - GaussMark: A Practical Approach for Structural Watermarking of Language Models [61.84270985214254]
GaussMarkは、大規模な言語モデルを透かし出すためのシンプルで効率的で比較的堅牢なスキームである。
GaussMarkは信頼性が高く、効率的で、挿入、削除、置換、ラウンドトリップ翻訳などの汚職に対して比較的堅牢であることを示す。
論文 参考訳(メタデータ) (2025-01-17T22:30:08Z) - Token-Specific Watermarking with Enhanced Detectability and Semantic Coherence for Large Language Models [31.062753031312006]
大規模言語モデルは、潜在的な誤報を伴う高品質な応答を生成する。
ウォーターマーキングは、テキストに隠れたマーカーを埋め込むことによって、この文脈において重要な意味を持つ。
ウォーターマーキングのための新しい多目的最適化(MOO)手法を提案する。
本手法は,検出性と意味的整合性を同時に達成する。
論文 参考訳(メタデータ) (2024-02-28T05:43:22Z) - Adaptive Text Watermark for Large Language Models [8.100123266517299]
プロンプトやモデルの知識を必要とせずに、強力なセキュリティ、堅牢性、および透かしを検出する能力を維持しつつ、高品質な透かしテキストを生成することは困難である。
本稿では,この問題に対処するための適応型透かし手法を提案する。
論文 参考訳(メタデータ) (2024-01-25T03:57:12Z) - Improving the Generation Quality of Watermarked Large Language Models
via Word Importance Scoring [81.62249424226084]
トークンレベルの透かしは、トークン確率分布を変更して生成されたテキストに透かしを挿入する。
この透かしアルゴリズムは、生成中のロジットを変化させ、劣化したテキストの品質につながる可能性がある。
We propose to improve the quality of texts generated by a watermarked language model by Watermarking with Importance Scoring (WIS)。
論文 参考訳(メタデータ) (2023-11-16T08:36:00Z) - Watermarking Conditional Text Generation for AI Detection: Unveiling
Challenges and a Semantic-Aware Watermark Remedy [52.765898203824975]
本研究では,条件付きテキスト生成と入力コンテキストの特性を考慮した意味認識型透かしアルゴリズムを提案する。
実験結果から,提案手法は様々なテキスト生成モデルに対して大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2023-07-25T20:24:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。