論文の概要: StealthInk: A Multi-bit and Stealthy Watermark for Large Language Models
- arxiv url: http://arxiv.org/abs/2506.05502v1
- Date: Thu, 05 Jun 2025 18:37:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.197219
- Title: StealthInk: A Multi-bit and Stealthy Watermark for Large Language Models
- Title(参考訳): StealthInk: 大規模言語モデルのためのマルチビットでステルスな透かし
- Authors: Ya Jiang, Chuxiong Wu, Massieh Kordi Boroujeny, Brian Mark, Kai Zeng,
- Abstract要約: StealthInkは、大規模言語モデル(LLM)のためのステルスなマルチビット透かし方式である
元のテキスト配布を保存し、証明データの埋め込みを可能にする。
固定等誤り率で透かし検出に必要なトークン数に対する低い境界を導出する。
- 参考スコア(独自算出の注目度): 4.76514657698929
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Watermarking for large language models (LLMs) offers a promising approach to identifying AI-generated text. Existing approaches, however, either compromise the distribution of original generated text by LLMs or are limited to embedding zero-bit information that only allows for watermark detection but ignores identification. We present StealthInk, a stealthy multi-bit watermarking scheme that preserves the original text distribution while enabling the embedding of provenance data, such as userID, TimeStamp, and modelID, within LLM-generated text. This enhances fast traceability without requiring access to the language model's API or prompts. We derive a lower bound on the number of tokens necessary for watermark detection at a fixed equal error rate, which provides insights on how to enhance the capacity. Comprehensive empirical evaluations across diverse tasks highlight the stealthiness, detectability, and resilience of StealthInk, establishing it as an effective solution for LLM watermarking applications.
- Abstract(参考訳): 大規模言語モデル(LLM)のための透かしは、AI生成したテキストを特定するための有望なアプローチを提供する。
しかし、既存のアプローチでは、LLMによるオリジナルのテキストの配布を妥協するか、透かし検出しかできないが識別を無視するゼロビット情報の埋め込みに制限されている。
我々は,ユーザID,TimeStamp,ModelIDなどの前駆体データのLLM生成テキストへの埋め込みを可能にしながら,元のテキスト分布を保存するステルスマルチビット透かし方式であるStealthInkを提案する。
これにより、言語モデルのAPIやプロンプトへのアクセスを必要とせずに、高速なトレーサビリティが向上する。
固定等誤差率で透かし検出に必要なトークン数を低くし,キャパシティを向上させる方法について考察する。
多様なタスクにわたる総合的な経験的評価は、ステルスインクのステルスネス、検出可能性、レジリエンスを強調し、LLMウォーターマーキングの効果的なソリューションとして確立した。
関連論文リスト
- DERMARK: A Dynamic, Efficient and Robust Multi-bit Watermark for Large Language Models [18.023143082876015]
動的,効率的,堅牢なマルチビット透かし方式であるDERMARKを提案する。
DERMARKはテキストを各ビットの埋め込みごとに異なる長さのセグメントに分割し、テキストの容量に適応的に適合する。
これは、透かし抽出損失を最小限に抑えて、テキスト編集に対して無視できるオーバーヘッドと堅牢な性能で実現される。
論文 参考訳(メタデータ) (2025-02-04T11:23:49Z) - Less is More: Sparse Watermarking in LLMs with Enhanced Text Quality [27.592486717044455]
テキストに分散した生成されたトークンの小さなサブセットに透かしを適用することで、このトレードオフを緩和することを目的とした新しいタイプの透かしであるスパース透かしを提案する。
提案手法は,従来の透かし手法よりも高い品質のテキストを生成しつつ,高い検出性を実現することを示す。
論文 参考訳(メタデータ) (2024-07-17T18:52:12Z) - Token-Specific Watermarking with Enhanced Detectability and Semantic Coherence for Large Language Models [31.062753031312006]
大規模言語モデルは、潜在的な誤報を伴う高品質な応答を生成する。
ウォーターマーキングは、テキストに隠れたマーカーを埋め込むことによって、この文脈において重要な意味を持つ。
ウォーターマーキングのための新しい多目的最適化(MOO)手法を提案する。
本手法は,検出性と意味的整合性を同時に達成する。
論文 参考訳(メタデータ) (2024-02-28T05:43:22Z) - WatME: Towards Lossless Watermarking Through Lexical Redundancy [58.61972059246715]
本研究では,認知科学レンズを用いた大規模言語モデル(LLM)の異なる機能に対する透かしの効果を評価する。
透かしをシームレスに統合するための相互排他型透かし(WatME)を導入する。
論文 参考訳(メタデータ) (2023-11-16T11:58:31Z) - Improving the Generation Quality of Watermarked Large Language Models
via Word Importance Scoring [81.62249424226084]
トークンレベルの透かしは、トークン確率分布を変更して生成されたテキストに透かしを挿入する。
この透かしアルゴリズムは、生成中のロジットを変化させ、劣化したテキストの品質につながる可能性がある。
We propose to improve the quality of texts generated by a watermarked language model by Watermarking with Importance Scoring (WIS)。
論文 参考訳(メタデータ) (2023-11-16T08:36:00Z) - Towards Codable Watermarking for Injecting Multi-bits Information to LLMs [86.86436777626959]
大規模言語モデル(LLM)は、流布とリアリズムを増大させるテキストを生成する。
既存の透かし方式はエンコーディング非効率であり、多様な情報エンコーディングニーズに柔軟に対応できない。
テキスト透かしを複数ビットでカスタマイズ可能な情報を運ぶことができるCTWL (Codable Text Watermarking for LLMs) を提案する。
論文 参考訳(メタデータ) (2023-07-29T14:11:15Z) - A Watermark for Large Language Models [84.95327142027183]
本稿では,プロプライエタリな言語モデルのための透かしフレームワークを提案する。
透かしはテキストの品質に無視できない影響で埋め込むことができる。
言語モデルAPIやパラメータにアクセスすることなく、効率的なオープンソースアルゴリズムを使って検出することができる。
論文 参考訳(メタデータ) (2023-01-24T18:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。