論文の概要: EditMark: Watermarking Large Language Models based on Model Editing
- arxiv url: http://arxiv.org/abs/2510.16367v1
- Date: Sat, 18 Oct 2025 06:25:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.965397
- Title: EditMark: Watermarking Large Language Models based on Model Editing
- Title(参考訳): EditMark: モデル編集に基づく大規模言語モデルの透かし
- Authors: Shuai Li, Kejiang Chen, Jun Jiang, Jie Zhang, Qiyi Yao, Kai Zeng, Weiming Zhang, Nenghai Yu,
- Abstract要約: モデル編集を利用した最初の電子透かし手法であるEditMarkを提案する。
実験によると、EditMarkは32ビットの透かしを20秒以内にLLMに埋め込むことができ、透かし抽出の成功率は100%である。
- 参考スコア(独自算出の注目度): 76.04893766374221
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable capabilities, but their training requires extensive data and computational resources, rendering them valuable digital assets. Therefore, it is essential to watermark LLMs to protect their copyright and trace unauthorized use or resale. Existing methods for watermarking LLMs primarily rely on training LLMs with a watermarked dataset, which entails burdensome training costs and negatively impacts the LLM's performance. In addition, their watermarked texts are not logical or natural, thereby reducing the stealthiness of the watermark. To address these issues, we propose EditMark, the first watermarking method that leverages model editing to embed a training-free, stealthy, and performance-lossless watermark for LLMs. We observe that some questions have multiple correct answers. Therefore, we assign each answer a unique watermark and update the weights of LLMs to generate corresponding questions and answers through the model editing technique. In addition, we refine the model editing technique to align with the requirements of watermark embedding. Specifically, we introduce an adaptive multi-round stable editing strategy, coupled with the injection of a noise matrix, to improve both the effectiveness and robustness of the watermark embedding. Extensive experiments indicate that EditMark can embed 32-bit watermarks into LLMs within 20 seconds (Fine-tuning: 6875 seconds) with a watermark extraction success rate of 100%, which demonstrates its effectiveness and efficiency. External experiments further demonstrate that EditMark has fidelity, stealthiness, and a certain degree of robustness against common attacks.
- Abstract(参考訳): LLM(Large Language Models)は目覚ましい能力を示しているが、その訓練には膨大なデータと計算資源が必要である。
したがって、LLMは著作権を保護し、無許可の使用や再販売を追跡することが不可欠である。
既存のLLMの透かし方法は、主に透かし付きデータセットによるLLMのトレーニングに依存しており、これは負担のかかるトレーニングコストを伴い、LLMのパフォーマンスに悪影響を及ぼす。
また、透かしのテキストは論理的でも自然的でもないため、透かしのステルス性が低下する。
これらの問題に対処するために,モデル編集を利用した最初の透かし手法であるEditMarkを提案する。
いくつかの質問が正しい回答を複数持っているのを観察する。
そこで我々は,各回答にユニークな透かしを割り当て,LLMの重みを更新し,モデル編集手法を用いて対応する質問や回答を生成する。
さらに,透かし埋め込みの要件に合わせてモデル編集手法を改良する。
具体的には,適応的な複数ラウンドの安定な編集戦略とノイズマトリックスの注入を導入し,透かし埋め込みの有効性とロバスト性を両立させる。
大規模な実験により、EditMarkは20秒以内に32ビットの透かしをLLMに埋め込むことができる(Fine-tuning:6875秒)。
外部での実験では、EditMarkは忠実さ、ステルス性、そして一般的な攻撃に対するある程度の堅牢性を持っていることが証明されている。
関連論文リスト
- Can Watermarked LLMs be Identified by Users via Crafted Prompts? [55.460327393792156]
この研究は、透かし付き大言語モデル(LLM)の非受容性を初めて研究したものである。
我々は、よく設計されたプロンプトを通して透かしを検出する、Water-Probeと呼ばれる識別アルゴリズムを設計する。
実験の結果、ほとんどの主流の透かしアルゴリズムは、よく設計されたプロンプトと容易に識別できることがわかった。
論文 参考訳(メタデータ) (2024-10-04T06:01:27Z) - Turning Your Strength into Watermark: Watermarking Large Language Model via Knowledge Injection [66.26348985345776]
本稿では,知識注入に基づく大規模言語モデル(LLM)のための新しい透かし手法を提案する。
透かし埋め込みの段階では、まず選択した知識に透かしを埋め込んで、透かし付き知識を得る。
透かし抽出段階では、疑わしいLLMを問うために、透かし付き知識に関する質問を設計する。
実験により, 透かし抽出の成功率は100%近くであり, 提案手法の有効性, 忠実性, ステルス性, 堅牢性を示した。
論文 参考訳(メタデータ) (2023-11-16T03:22:53Z) - Provable Robust Watermarking for AI-Generated Text [41.5510809722375]
We propose a robust and high-quality watermark method, Unigram-Watermark。
提案手法は,テキストの編集やパラフレージングに頑健で,生成品質,透かし検出の精度が保証されていることを実証する。
論文 参考訳(メタデータ) (2023-06-30T07:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。