論文の概要: Majority Bit-Aware Watermarking For Large Language Models
- arxiv url: http://arxiv.org/abs/2508.03829v1
- Date: Tue, 05 Aug 2025 18:19:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.414964
- Title: Majority Bit-Aware Watermarking For Large Language Models
- Title(参考訳): 大規模言語モデルのためのビット対応電子透かし
- Authors: Jiahao Xu, Rui Hu, Zikai Zhang,
- Abstract要約: MajorMarkは、多数ビット認識エンコーディングによるこのトレードオフを改善する新しい透かし手法である。
トークン周波数分析を利用した復号化手法とは対照的に、MajorMarkはクラスタリングベースの復号化戦略を採用している。
我々の手法は復号精度とテキスト生成品質の両方を著しく向上させる。
- 参考スコア(独自算出の注目度): 7.200910949076064
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing deployment of Large Language Models (LLMs) in real-world applications has raised concerns about their potential misuse in generating harmful or deceptive content. To address this issue, watermarking techniques have emerged as a promising solution by embedding identifiable binary messages into generated text for origin verification and misuse tracing. While recent efforts have explored multi-bit watermarking schemes capable of embedding rich information such as user identifiers, they typically suffer from the fundamental trade-off between text quality and decoding accuracy: to ensure reliable message decoding, they have to restrict the size of preferred token sets during encoding, yet such restrictions reduce the quality of the generated content. In this work, we propose MajorMark, a novel watermarking method that improves this trade-off through majority bit-aware encoding. MajorMark selects preferred token sets based on the majority bit of the message, enabling a larger and more flexible sampling of tokens. In contrast to prior methods that rely on token frequency analysis for decoding, MajorMark employs a clustering-based decoding strategy, which maintains high decoding accuracy even when the preferred token set is large, thus preserving both content quality and decoding accuracy. We further introduce MajorMark$^+$, which partitions the message into multiple blocks to independently encode and deterministically decode each block, thereby further enhancing the quality of watermarked text and improving decoding accuracy. Extensive experiments on state-of-the-art LLMs demonstrate that our methods significantly enhance both decoding accuracy and text generation quality, outperforming prior multi-bit watermarking baselines.
- Abstract(参考訳): 現実世界のアプリケーションにおけるLarge Language Models(LLM)の展開の増加は、有害または偽りのコンテンツを生成する際の誤用の可能性への懸念を引き起こしている。
この問題に対処するために、識別可能なバイナリメッセージを生成したテキストに埋め込んで、元の検証と誤用トレースを行うことによって、透かし技術が有望なソリューションとして登場した。
近年ではユーザ識別子などのリッチな情報を埋め込むマルチビット透かし方式が検討されているが、テキストの品質と復号精度の基本的なトレードオフに悩まされている。
本稿では,多数ビット認識符号化によるトレードオフを改善する新しい透かし手法MajorMarkを提案する。
MajorMarkはメッセージの多数ビットに基づいて推奨トークンセットを選択し、トークンのより大きく柔軟なサンプリングを可能にする。
復号化のためのトークン周波数解析に依存する従来の手法とは対照的に、MajorMarkはクラスタリングベースの復号方式を採用しており、好むトークンセットが大きければ高い復号精度を維持し、コンテンツ品質と復号精度の両方を保存する。
さらに、MajorMark$^+$を導入して、メッセージを複数のブロックに分割して、各ブロックを独立にエンコードし、決定的にデコードし、透かし付きテキストの品質をさらに向上し、復号精度を向上させる。
従来のマルチビット透かしベースラインよりも優れた復号精度とテキスト生成品質を両立させる手法が提案されている。
関連論文リスト
- BiMark: Unbiased Multilayer Watermarking for Large Language Models [54.58546293741373]
テキスト品質とメッセージ埋め込み能力のバランスをとる新しい透かしフレームワークであるBiMarkを提案する。
BiMarkは、短いテキストに対して最大30%高い抽出率を達成すると同時に、低いパープレキシティで示されるテキスト品質を維持する。
論文 参考訳(メタデータ) (2025-06-19T11:08:59Z) - A Nested Watermark for Large Language Models [6.702383792532788]
大型言語モデル(LLM)は偽ニュースや誤情報を生成するために誤用されることがある。
本稿では、2つの異なる透かしを生成されたテキストに埋め込む新しいネスト付き透かし方式を提案する。
提案手法は,テキストの流速と全体的な品質を維持しつつ,両透かしの高精度な検出を実現する。
論文 参考訳(メタデータ) (2025-06-18T05:49:05Z) - StealthInk: A Multi-bit and Stealthy Watermark for Large Language Models [4.76514657698929]
StealthInkは、大規模言語モデル(LLM)のためのステルスなマルチビット透かし方式である
元のテキスト配布を保存し、証明データの埋め込みを可能にする。
固定等誤り率で透かし検出に必要なトークン数に対する低い境界を導出する。
論文 参考訳(メタデータ) (2025-06-05T18:37:38Z) - Improved Unbiased Watermark for Large Language Models [59.00698153097887]
本稿では,非バイアスのマルチチャネル型透かしであるMCmarkを紹介する。
MCmarkは言語モデルの本来の分布を保存する。
既存の非バイアスの透かしよりも検出性と堅牢性を大幅に改善する。
論文 参考訳(メタデータ) (2025-02-16T21:02:36Z) - DERMARK: A Dynamic, Efficient and Robust Multi-bit Watermark for Large Language Models [18.023143082876015]
テキストを各ウォーターマークビットに対して可変長セグメントに分割する動的で効率的で堅牢なマルチビット透かし法を提案する。
本手法は,埋め込みビット当たりのトークン数を25%削減し,透かし埋め込み時間を50%削減し,テキスト修正や透かし消去攻撃に対して高い堅牢性を維持する。
論文 参考訳(メタデータ) (2025-02-04T11:23:49Z) - Watermarking Language Models with Error Correcting Codes [39.77377710480125]
本稿では,誤り訂正符号を用いて統計的信号を符号化する透かしフレームワークを提案する。
本手法は,ロバストバイナリコード (RBC) の透かしと呼ばれ,品質の顕著な劣化を生じさせない。
私たちの経験的発見は、私たちの透かしは速く、強力で、堅牢であり、最先端のものと好意的に比較していることを示唆しています。
論文 参考訳(メタデータ) (2024-06-12T05:13:09Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [56.019447113206006]
大規模言語モデル(LLM)はコード生成において顕著な進歩を遂げた。
CodeIPは、新しいマルチビット透かし技術で、出所の詳細を保持するために追加情報を挿入する。
5つのプログラミング言語にまたがる実世界のデータセットで実施された実験は、CodeIPの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - Improving the Generation Quality of Watermarked Large Language Models
via Word Importance Scoring [81.62249424226084]
トークンレベルの透かしは、トークン確率分布を変更して生成されたテキストに透かしを挿入する。
この透かしアルゴリズムは、生成中のロジットを変化させ、劣化したテキストの品質につながる可能性がある。
We propose to improve the quality of texts generated by a watermarked language model by Watermarking with Importance Scoring (WIS)。
論文 参考訳(メタデータ) (2023-11-16T08:36:00Z) - Towards Codable Watermarking for Injecting Multi-bits Information to LLMs [86.86436777626959]
大規模言語モデル(LLM)は、流布とリアリズムを増大させるテキストを生成する。
既存の透かし方式はエンコーディング非効率であり、多様な情報エンコーディングニーズに柔軟に対応できない。
テキスト透かしを複数ビットでカスタマイズ可能な情報を運ぶことができるCTWL (Codable Text Watermarking for LLMs) を提案する。
論文 参考訳(メタデータ) (2023-07-29T14:11:15Z) - Who Wrote this Code? Watermarking for Code Generation [53.24895162874416]
本稿では,機械生成テキストを検出するために,Entropy Thresholding (SWEET) を用いたSelective WatErmarkingを提案する。
実験の結果,SWEETはコード品質を著しく向上し,すべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-24T11:49:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。