論文の概要: MirrorMark: A Distortion-Free Multi-Bit Watermark for Large Language Models
- arxiv url: http://arxiv.org/abs/2601.22246v1
- Date: Thu, 29 Jan 2026 19:10:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.020078
- Title: MirrorMark: A Distortion-Free Multi-Bit Watermark for Large Language Models
- Title(参考訳): MirrorMark: 大規模言語モデルのための歪みのないマルチビット透かし
- Authors: Ya Jiang, Massieh Kordi Boroujeny, Surender Suresh Kumar, Kai Zeng,
- Abstract要約: 大規模言語モデル(LLM)のための歪みのない透かしであるMirrorMarkを提案する。
MirrorMarkはトークンの確率分布を変更することなくマルチビットメッセージを埋め込み、設計によるテキスト品質の保存を行う。
実験の結果,MirrorMarkは非透かし生成のテキスト品質とほぼ一致し,検出性は著しく向上した。
- 参考スコア(独自算出の注目度): 5.735801967350819
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) become integral to applications such as question answering and content creation, reliable content attribution has become increasingly important. Watermarking is a promising approach, but existing methods either provide only binary signals or distort the sampling distribution, degrading text quality; distortion-free approaches, in turn, often suffer from weak detectability or robustness. We propose MirrorMark, a multi-bit and distortion-free watermark for LLMs. By mirroring sampling randomness in a measure-preserving manner, MirrorMark embeds multi-bit messages without altering the token probability distribution, preserving text quality by design. To improve robustness, we introduce a context-based scheduler that balances token assignments across message positions while remaining resilient to insertions and deletions. We further provide a theoretical analysis of the equal error rate to interpret empirical performance. Experiments show that MirrorMark matches the text quality of non-watermarked generation while achieving substantially stronger detectability: with 54 bits embedded in 300 tokens, it improves bit accuracy by 8-12% and correctly identifies up to 11% more watermarked texts at 1% false positive rate.
- Abstract(参考訳): 大規模言語モデル(LLM)が質問応答やコンテンツ作成などのアプリケーションに不可欠なものとなるにつれ、信頼性の高いコンテンツ属性がますます重要になっている。
ウォーターマーキングは有望なアプローチであるが、既存の手法はバイナリ信号のみを提供し、サンプリング分布を歪ませ、テキストの品質を劣化させる。
LLMのためのマルチビットかつ歪みのない透かしであるMirrorMarkを提案する。
MirrorMarkは、サンプリングランダム性を測度保存方式でミラーリングすることにより、トークン確率分布を変更することなくマルチビットメッセージを埋め込み、設計によるテキスト品質の保存を行う。
堅牢性を向上させるため,メッセージ位置間でトークン割り当てのバランスをとるとともに,挿入や削除に対する耐性を維持したコンテキストベースのスケジューラを導入する。
さらに,同値誤差率の理論解析を行い,経験的性能を解釈する。
MirrorMarkは300個のトークンに54ビットを埋め込み、ビット精度を8-12%向上させ、1%の偽陽性率で最大11%以上の透かしテキストを正しく識別する。
関連論文リスト
- Data Provenance Auditing of Fine-Tuned Large Language Models with a Text-Preserving Technique [36.96848724920411]
我々は、見えないUnicode文字を文書に埋め込むテキスト保存型透かしフレームワークを導入する。
我々は50の文書を微調整した後の応答を検出する際に0.1%未満の失敗率を実験的に観察した。
100%TPR@0% FPRに対応する18,000以上の課題において、突発的な回答は得られなかった。
論文 参考訳(メタデータ) (2025-10-07T08:34:08Z) - An Ensemble Framework for Unbiased Language Model Watermarking [60.99969104552168]
本研究では,アンサンブル・フレームワークであるENSを提案する。
ENSは複数の独立した透かしインスタンスを順次構成し、それぞれ異なるキーによって管理され、透かし信号を増幅する。
実験的な評価では、ENSは信頼できる検出に必要なトークンの数を大幅に減らし、平滑化やパラフレージング攻撃に対する耐性を高めている。
論文 参考訳(メタデータ) (2025-09-28T19:37:44Z) - PMark: Towards Robust and Distortion-free Semantic-level Watermarking with Channel Constraints [49.2373408329323]
大規模言語モデル(LLM)のための透かしレベル(SWM)に関する新しい理論フレームワークを提案する。
PMarkは単純だが強力なSWM手法であり、サンプリングチャネルを通して中央値の次文を動的に推定する。
実験結果から,PMarkはテキスト品質とパラフレージングの両方において,既存のSWMベースラインを一貫して上回ることがわかった。
論文 参考訳(メタデータ) (2025-09-25T12:08:31Z) - SAEMark: Multi-bit LLM Watermarking with Inference-Time Scaling [24.603169307967338]
SAEMarkはポストホックなマルチビット透かしのための一般的なフレームワークである。
パーソナライズされたメッセージは、推論時間、フィーチャベースのリジェクションサンプリングによってのみ埋め込む。
SAEMarkの一貫性のある性能を示し、英語でのF1は99.7%、マルチビット検出精度は強い。
論文 参考訳(メタデータ) (2025-08-11T17:33:18Z) - BiMark: Unbiased Multilayer Watermarking for Large Language Models [68.64050157343334]
テキスト品質とメッセージ埋め込み能力のバランスをとる新しい透かしフレームワークであるBiMarkを提案する。
BiMarkは、短いテキストに対して最大30%高い抽出率を達成すると同時に、低いパープレキシティで示されるテキスト品質を維持する。
論文 参考訳(メタデータ) (2025-06-19T11:08:59Z) - Improved Unbiased Watermark for Large Language Models [59.00698153097887]
本稿では,非バイアスのマルチチャネル型透かしであるMCmarkを紹介する。
MCmarkは言語モデルの本来の分布を保存する。
既存の非バイアスの透かしよりも検出性と堅牢性を大幅に改善する。
論文 参考訳(メタデータ) (2025-02-16T21:02:36Z) - DERMARK: A Dynamic, Efficient and Robust Multi-bit Watermark for Large Language Models [18.023143082876015]
テキストを各ウォーターマークビットに対して可変長セグメントに分割する動的で効率的で堅牢なマルチビット透かし法を提案する。
本手法は,埋め込みビット当たりのトークン数を25%削減し,透かし埋め込み時間を50%削減し,テキスト修正や透かし消去攻撃に対して高い堅牢性を維持する。
論文 参考訳(メタデータ) (2025-02-04T11:23:49Z) - GaussMark: A Practical Approach for Structural Watermarking of Language Models [61.84270985214254]
GaussMarkは、大規模な言語モデルを透かし出すためのシンプルで効率的で比較的堅牢なスキームである。
GaussMarkは信頼性が高く、効率的で、挿入、削除、置換、ラウンドトリップ翻訳などの汚職に対して比較的堅牢であることを示す。
論文 参考訳(メタデータ) (2025-01-17T22:30:08Z) - Signal Watermark on Large Language Models [28.711745671275477]
本稿では,Large Language Models (LLMs) によるテキストに特定の透かしを埋め込む透かし手法を提案する。
この技術は、透かしが人間に見えないことを保証するだけでなく、モデル生成テキストの品質と文法的整合性も維持する。
提案手法は複数のLDMに対して実験的に検証され,高い検出精度を維持している。
論文 参考訳(メタデータ) (2024-10-09T04:49:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。