論文の概要: MorphMark: Flexible Adaptive Watermarking for Large Language Models
- arxiv url: http://arxiv.org/abs/2505.11541v2
- Date: Tue, 20 May 2025 00:24:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.252974
- Title: MorphMark: Flexible Adaptive Watermarking for Large Language Models
- Title(参考訳): MorphMark: 大きな言語モデルのための柔軟な適応型透かし
- Authors: Zongqi Wang, Tianle Gu, Baoyuan Wu, Yujiu Yang,
- Abstract要約: 既存の透かし法は、しばしばジレンマに苦しむ: 透かしの有効性を改善するには、テキストの品質を低下させるコストがかかる。
特定因子の変化に応じて透かし強度を適応的に調整するMorphMark法を開発した。
MorphMarkは、高い柔軟性と時間と空間効率を提供するとともに、有効性の高いジレンマの優れた解決を実現している。
- 参考スコア(独自算出の注目度): 49.3302421751894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Watermarking by altering token sampling probabilities based on red-green list is a promising method for tracing the origin of text generated by large language models (LLMs). However, existing watermark methods often struggle with a fundamental dilemma: improving watermark effectiveness (the detectability of the watermark) often comes at the cost of reduced text quality. This trade-off limits their practical application. To address this challenge, we first formalize the problem within a multi-objective trade-off analysis framework. Within this framework, we identify a key factor that influences the dilemma. Unlike existing methods, where watermark strength is typically treated as a fixed hyperparameter, our theoretical insights lead to the development of MorphMarka method that adaptively adjusts the watermark strength in response to changes in the identified factor, thereby achieving an effective resolution of the dilemma. In addition, MorphMark also prioritizes flexibility since it is a model-agnostic and model-free watermark method, thereby offering a practical solution for real-world deployment, particularly in light of the rapid evolution of AI models. Extensive experiments demonstrate that MorphMark achieves a superior resolution of the effectiveness-quality dilemma, while also offering greater flexibility and time and space efficiency.
- Abstract(参考訳): 大規模言語モデル(LLM)が生成するテキストの原点の追跡には,赤緑リストに基づくトークンサンプリング確率の変更による透かしが有望である。
しかし、既存の透かし法はしばしば基本的なジレンマに悩まされる: 透かしの有効性(透かしの検出性)を改善することは、テキストの品質を低下させるコストがかかる。
このトレードオフは実践的応用を制限する。
この課題に対処するために、我々はまず、多目的トレードオフ分析フレームワークで問題を定式化する。
この枠組みの中で、ジレンマに影響を及ぼす重要な要因を同定する。
従来の透かし強度を固定ハイパーパラメータとして扱う手法とは異なり,本理論は,特定因子の変化に応じて透かし強度を適応的に調整するMorphMarka法を開発し,ジレンマを効果的に解決する。
さらに、MorphMarkはモデルに依存しないモデルフリーの透かし方式であるため、柔軟性も優先している。
大規模な実験により、MorphMarkは優れた効率性ジレンマを実現し、柔軟性と時間と空間効率も向上した。
関連論文リスト
- Safe-VAR: Safe Visual Autoregressive Model for Text-to-Image Generative Watermarking [18.251123923955397]
自己回帰学習はテキストと画像の生成において支配的なアプローチとなり、高い効率と視覚的品質を提供する。
拡散モデルのために設計された既存の透かし法は、しばしばVARモデルのシーケンシャルな性質に適応するのに苦労する。
自動回帰テキスト・画像生成に特化して設計された最初のウォーターマーキングフレームワークであるSafe-VARを提案する。
論文 参考訳(メタデータ) (2025-03-14T11:45:10Z) - Theoretically Grounded Framework for LLM Watermarking: A Distribution-Adaptive Approach [35.319577498993354]
大規模言語モデル(LLM)の透かしのための新しい理論的枠組みを提案する。
本手法は,最悪のType-Iエラーとテキスト歪みの制御を維持しつつ,検出性能の最大化に重点を置いている。
本稿では,Gumbel-max の手法と並行してサロゲートモデルを用いた,効率的かつモデルに依存しない分布適応型透かしアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-03T18:28:10Z) - Towards Effective User Attribution for Latent Diffusion Models via Watermark-Informed Blending [54.26862913139299]
我々は、ウォーターマークインフォームドブレンディング(TEAWIB)による潜伏拡散モデルに対する効果的なユーザ属性に向けた新しいフレームワークを提案する。
TEAWIBは、ユーザ固有の透かしを生成モデルにシームレスに統合する、ユニークな準備可能な構成アプローチを取り入れている。
TEAWIBの有効性を検証し、知覚的品質と帰属精度で最先端の性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-09-17T07:52:09Z) - JIGMARK: A Black-Box Approach for Enhancing Image Watermarks against Diffusion Model Edits [76.25962336540226]
JIGMARKは、コントラスト学習による堅牢性を高める、第一級の透かし技術である。
本評価の結果,JIGMARKは既存の透かし法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-06T03:31:41Z) - TokenMark: A Modality-Agnostic Watermark for Pre-trained Transformers [67.57928750537185]
TokenMarkは、事前訓練されたモデルに対する頑健で、モダリティに依存しない、堅牢な透かしシステムである。
予めトレーニングされたモデルを、特別に置換されたデータサンプルのセットに微調整することで、透かしを埋め込む。
これはモデル透かしの堅牢性、効率、普遍性を著しく改善する。
論文 参考訳(メタデータ) (2024-03-09T08:54:52Z) - Adaptive Text Watermark for Large Language Models [8.100123266517299]
プロンプトやモデルの知識を必要とせずに、強力なセキュリティ、堅牢性、および透かしを検出する能力を維持しつつ、高品質な透かしテキストを生成することは困難である。
本稿では,この問題に対処するための適応型透かし手法を提案する。
論文 参考訳(メタデータ) (2024-01-25T03:57:12Z) - A Resilient and Accessible Distribution-Preserving Watermark for Large Language Models [65.40460716619772]
本研究は,textbfDistribution-textbf Preserving (DiP)ウォーターマークの重要性に焦点をあてる。
現在の戦略とは対照的に,提案したDiPmarkは透かし中に元のトークン分布を同時に保存する。
言語モデルAPIにアクセスせずに検出可能で(アクセス可能)、トークンの適度な変更に対して確実に堅牢である。
論文 参考訳(メタデータ) (2023-10-11T17:57:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。