論文の概要: Addressing Tokenization Inconsistency in Steganography and Watermarking Based on Large Language Models
- arxiv url: http://arxiv.org/abs/2508.20718v1
- Date: Thu, 28 Aug 2025 12:43:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.387048
- Title: Addressing Tokenization Inconsistency in Steganography and Watermarking Based on Large Language Models
- Title(参考訳): 大規模言語モデルに基づくステレオグラフィーと透かしにおけるトークン化の不整合への対処
- Authors: Ruiyi Yan, Yugo Murawaki,
- Abstract要約: 本研究では, Alice と Bob のステガノグラフィーおよび透かしにおけるトークン化不整合(TI)に焦点を当てた。
ステガノグラフィーの段階的検証法とウォーターマーキングのポストホックロールバック法という,TI除去のための最適化された2つのソリューションを提案する。
- 参考スコア(独自算出の注目度): 6.241000167864423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models have significantly enhanced the capacities and efficiency of text generation. On the one hand, they have improved the quality of text-based steganography. On the other hand, they have also underscored the importance of watermarking as a safeguard against malicious misuse. In this study, we focus on tokenization inconsistency (TI) between Alice and Bob in steganography and watermarking, where TI can undermine robustness. Our investigation reveals that the problematic tokens responsible for TI exhibit two key characteristics: infrequency and temporariness. Based on these findings, we propose two tailored solutions for TI elimination: a stepwise verification method for steganography and a post-hoc rollback method for watermarking. Experiments show that (1) compared to traditional disambiguation methods in steganography, directly addressing TI leads to improvements in fluency, imperceptibility, and anti-steganalysis capacity; (2) for watermarking, addressing TI enhances detectability and robustness against attacks.
- Abstract(参考訳): 大規模言語モデルは、テキスト生成の能力と効率を大幅に向上させた。
一方,テキスト・ベース・ステガノグラフィーの質は向上した。
一方で、悪質な誤用に対する保護として、透かしの重要性も強調している。
本研究では, Alice と Bob のステガノグラフィーおよび透かしにおけるトークン化不整合性 (TI) に着目した。
本研究により, TIの原因となる問題トークンは, 高周波とテンポラリネスの2つの重要な特徴を呈することが明らかとなった。
これらの知見に基づいて,ステガノグラフィの段階的検証法とウォーターマーキングのポストホットロールバック法という,TI除去のための最適化された2つのソリューションを提案する。
実験の結果,(1) ステガノグラフィーにおける従来の曖昧化手法と比較して, TIの直接的対応は, 拡散性, 不受容性, 抗ステガナリシス能力の向上につながることが示唆された。
関連論文リスト
- A Nested Watermark for Large Language Models [6.702383792532788]
大型言語モデル(LLM)は偽ニュースや誤情報を生成するために誤用されることがある。
本稿では、2つの異なる透かしを生成されたテキストに埋め込む新しいネスト付き透かし方式を提案する。
提案手法は,テキストの流速と全体的な品質を維持しつつ,両透かしの高精度な検出を実現する。
論文 参考訳(メタデータ) (2025-06-18T05:49:05Z) - Towards Dataset Copyright Evasion Attack against Personalized Text-to-Image Diffusion Models [52.877452505561706]
データセットのオーナシップ検証(DOV)を損なうよう特別に設計された最初の著作権回避攻撃を提案する。
CEAT2Iは, 試料検出, トリガー同定, 効率的な透かし除去の3段階からなる。
実験の結果,CEAT2I はモデル性能を保ちながら DOV 機構を効果的に回避できることがわかった。
論文 参考訳(メタデータ) (2025-05-05T17:51:55Z) - BiMarker: Enhancing Text Watermark Detection for Large Language Models with Bipolar Watermarks [13.741307434082033]
既存の透かし技術は、低い透かし強度と厳しい偽陽性要件に苦しむ。
ツールは生成されたテキストを正極と負極に分割し、追加の計算リソースを必要とせずに検出を強化する。
論文 参考訳(メタデータ) (2025-01-21T14:32:50Z) - GaussMark: A Practical Approach for Structural Watermarking of Language Models [61.84270985214254]
GaussMarkは、大規模な言語モデルを透かし出すためのシンプルで効率的で比較的堅牢なスキームである。
GaussMarkは信頼性が高く、効率的で、挿入、削除、置換、ラウンドトリップ翻訳などの汚職に対して比較的堅牢であることを示す。
論文 参考訳(メタデータ) (2025-01-17T22:30:08Z) - Duwak: Dual Watermarks in Large Language Models [49.00264962860555]
トークン確率分布とサンプリングスキームの両方に二重秘密パターンを埋め込むことにより、透かしの効率と品質を向上させるために、Duwakを提案する。
Llama2でDuwakを4つの最先端透かし技術と組み合わせて評価した。
論文 参考訳(メタデータ) (2024-03-12T16:25:38Z) - Improving the Generation Quality of Watermarked Large Language Models
via Word Importance Scoring [81.62249424226084]
トークンレベルの透かしは、トークン確率分布を変更して生成されたテキストに透かしを挿入する。
この透かしアルゴリズムは、生成中のロジットを変化させ、劣化したテキストの品質につながる可能性がある。
We propose to improve the quality of texts generated by a watermarked language model by Watermarking with Importance Scoring (WIS)。
論文 参考訳(メタデータ) (2023-11-16T08:36:00Z) - An Unforgeable Publicly Verifiable Watermark for Large Language Models [84.2805275589553]
現在の透かし検出アルゴリズムは、透かし生成プロセスで使用される秘密鍵を必要としており、公開検出中にセキュリティ違反や偽造の影響を受ける。
両段階で同じキーを使用するのではなく、2つの異なるニューラルネットワークを用いて透かしの生成と検出を行う。
論文 参考訳(メタデータ) (2023-07-30T13:43:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。