論文の概要: BiMark: Unbiased Multilayer Watermarking for Large Language Models
- arxiv url: http://arxiv.org/abs/2506.21602v1
- Date: Thu, 19 Jun 2025 11:08:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.320008
- Title: BiMark: Unbiased Multilayer Watermarking for Large Language Models
- Title(参考訳): BiMark: 大規模言語モデルのための曖昧な多層透かし
- Authors: Xiaoyan Feng, He Zhang, Yanjun Zhang, Leo Yu Zhang, Shirui Pan,
- Abstract要約: テキスト品質とメッセージ埋め込み能力のバランスをとる新しい透かしフレームワークであるBiMarkを提案する。
BiMarkは、短いテキストに対して最大30%高い抽出率を達成すると同時に、低いパープレキシティで示されるテキスト品質を維持する。
- 参考スコア(独自算出の注目度): 54.58546293741373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in Large Language Models (LLMs) have raised urgent concerns about LLM-generated text authenticity, prompting regulatory demands for reliable identification mechanisms. Although watermarking offers a promising solution, existing approaches struggle to simultaneously achieve three critical requirements: text quality preservation, model-agnostic detection, and message embedding capacity, which are crucial for practical implementation. To achieve these goals, the key challenge lies in balancing the trade-off between text quality preservation and message embedding capacity. To address this challenge, we propose BiMark, a novel watermarking framework that achieves these requirements through three key innovations: (1) a bit-flip unbiased reweighting mechanism enabling model-agnostic detection, (2) a multilayer architecture enhancing detectability without compromising generation quality, and (3) an information encoding approach supporting multi-bit watermarking. Through theoretical analysis and extensive experiments, we validate that, compared to state-of-the-art multi-bit watermarking methods, BiMark achieves up to 30% higher extraction rates for short texts while maintaining text quality indicated by lower perplexity, and performs comparably to non-watermarked text on downstream tasks such as summarization and translation.
- Abstract(参考訳): LLM(Large Language Models)の最近の進歩は、LCM生成したテキストの真正性に対する緊急の懸念を引き起こし、信頼性の高い識別機構の規制要求を引き起こしている。
ウォーターマーキングは有望なソリューションを提供するが、既存のアプローチでは、テキスト品質の保存、モデルに依存しない検出、メッセージ埋め込み能力という3つの重要な要件を同時に達成することに苦労している。
これらの目標を達成するために重要な課題は、テキスト品質の保存とメッセージの埋め込み能力のトレードオフをバランスさせることである。
この課題に対処するため,ビマークは,(1)モデルに依存しない検出を可能にするビットフリップ・アンバイアス・リウェイト機構,(2)生成品質を損なうことなく検出性を向上する多層アーキテクチャ,(3)マルチビット透かしをサポートする情報符号化アプローチの3つの重要な革新を通じて,これらの要件を達成する新しい透かしフレームワークを提案する。
理論的解析と広範囲な実験により、BiMarkは、最先端のマルチビット透かし法と比較して、短いテキストの抽出率を最大30%向上し、低いパープレキシティで示されるテキスト品質を維持し、要約や翻訳などの下流タスクにおける非透かしテキストと相容れない性能を発揮することを確認した。
関連論文リスト
- A Nested Watermark for Large Language Models [6.702383792532788]
大型言語モデル(LLM)は偽ニュースや誤情報を生成するために誤用されることがある。
本稿では、2つの異なる透かしを生成されたテキストに埋め込む新しいネスト付き透かし方式を提案する。
提案手法は,テキストの流速と全体的な品質を維持しつつ,両透かしの高精度な検出を実現する。
論文 参考訳(メタデータ) (2025-06-18T05:49:05Z) - From Trade-off to Synergy: A Versatile Symbiotic Watermarking Framework for Large Language Models [16.89823786392689]
本稿では, シリアル, パラレル, ハイブリッドの3つの戦略を持つ多種多様な共生型透かしフレームワークを提案する。
このハイブリッドフレームワークはトークンエントロピーとセマンティックエントロピーを使用して透かしを適応的に埋め込み、検出可能性、堅牢性、テキスト品質、セキュリティのバランスを最適化する。
論文 参考訳(メタデータ) (2025-05-15T03:12:36Z) - Entropy-Guided Watermarking for LLMs: A Test-Time Framework for Robust and Traceable Text Generation [58.85645136534301]
サンプルテキストの既存の透かし方式は、テキスト品質の維持と各種攻撃に対する堅牢な検出とのトレードオフに直面していることが多い。
累積透かしエントロピー閾値を導入することにより,検出性とテキスト品質を両立させる新しい透かし方式を提案する。
論文 参考訳(メタデータ) (2025-04-16T14:16:38Z) - GaussMark: A Practical Approach for Structural Watermarking of Language Models [61.84270985214254]
GaussMarkは、大規模な言語モデルを透かし出すためのシンプルで効率的で比較的堅牢なスキームである。
GaussMarkは信頼性が高く、効率的で、挿入、削除、置換、ラウンドトリップ翻訳などの汚職に対して比較的堅牢であることを示す。
論文 参考訳(メタデータ) (2025-01-17T22:30:08Z) - Duwak: Dual Watermarks in Large Language Models [49.00264962860555]
トークン確率分布とサンプリングスキームの両方に二重秘密パターンを埋め込むことにより、透かしの効率と品質を向上させるために、Duwakを提案する。
Llama2でDuwakを4つの最先端透かし技術と組み合わせて評価した。
論文 参考訳(メタデータ) (2024-03-12T16:25:38Z) - Token-Specific Watermarking with Enhanced Detectability and Semantic Coherence for Large Language Models [31.062753031312006]
大規模言語モデルは、潜在的な誤報を伴う高品質な応答を生成する。
ウォーターマーキングは、テキストに隠れたマーカーを埋め込むことによって、この文脈において重要な意味を持つ。
ウォーターマーキングのための新しい多目的最適化(MOO)手法を提案する。
本手法は,検出性と意味的整合性を同時に達成する。
論文 参考訳(メタデータ) (2024-02-28T05:43:22Z) - Improving the Generation Quality of Watermarked Large Language Models
via Word Importance Scoring [81.62249424226084]
トークンレベルの透かしは、トークン確率分布を変更して生成されたテキストに透かしを挿入する。
この透かしアルゴリズムは、生成中のロジットを変化させ、劣化したテキストの品質につながる可能性がある。
We propose to improve the quality of texts generated by a watermarked language model by Watermarking with Importance Scoring (WIS)。
論文 参考訳(メタデータ) (2023-11-16T08:36:00Z) - Towards Codable Watermarking for Injecting Multi-bits Information to LLMs [86.86436777626959]
大規模言語モデル(LLM)は、流布とリアリズムを増大させるテキストを生成する。
既存の透かし方式はエンコーディング非効率であり、多様な情報エンコーディングニーズに柔軟に対応できない。
テキスト透かしを複数ビットでカスタマイズ可能な情報を運ぶことができるCTWL (Codable Text Watermarking for LLMs) を提案する。
論文 参考訳(メタデータ) (2023-07-29T14:11:15Z) - Three Bricks to Consolidate Watermarks for Large Language Models [13.559357913735122]
本研究は,3つの理論的および経験的考察に基づいて,大規模言語モデルの透かしを統合する。
まず、低い偽陽性率でも有効である、堅牢な理論的保証を提供する新しい統計テストを導入する。
第二に、自然言語処理の分野における古典的なベンチマークを用いた透かしの有効性を比較し、実世界の応用性について考察する。
論文 参考訳(メタデータ) (2023-07-26T17:56:36Z) - Provable Robust Watermarking for AI-Generated Text [41.5510809722375]
We propose a robust and high-quality watermark method, Unigram-Watermark。
提案手法は,テキストの編集やパラフレージングに頑健で,生成品質,透かし検出の精度が保証されていることを実証する。
論文 参考訳(メタデータ) (2023-06-30T07:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。