論文の概要: Yet Another Watermark for Large Language Models
- arxiv url: http://arxiv.org/abs/2509.12574v1
- Date: Tue, 16 Sep 2025 02:04:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.836327
- Title: Yet Another Watermark for Large Language Models
- Title(参考訳): 大規模言語モデルのための別の透かし
- Authors: Siyuan Bao, Ying Shi, Zhiguang Yang, Hanzhou Wu, Xinpeng Zhang,
- Abstract要約: 既存の大規模言語モデル(LLM)の透かし手法は、トークンサンプリング予測や後処理を調整することで透かしを埋め込む。
本稿では, LLMの内部パラメータを操作することで, LLMの内部に透かしを埋め込む新しい透かしフレームワークを提案する。
提案手法は, 透かしの頑健さと非受容性のバランスを良くするため, LLMの固有パラメータと透かしの絡み合わせを行う。
- 参考スコア(独自算出の注目度): 20.295405732813748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing watermarking methods for large language models (LLMs) mainly embed watermark by adjusting the token sampling prediction or post-processing, lacking intrinsic coupling with LLMs, which may significantly reduce the semantic quality of the generated marked texts. Traditional watermarking methods based on training or fine-tuning may be extendable to LLMs. However, most of them are limited to the white-box scenario, or very time-consuming due to the massive parameters of LLMs. In this paper, we present a new watermarking framework for LLMs, where the watermark is embedded into the LLM by manipulating the internal parameters of the LLM, and can be extracted from the generated text without accessing the LLM. Comparing with related methods, the proposed method entangles the watermark with the intrinsic parameters of the LLM, which better balances the robustness and imperceptibility of the watermark. Moreover, the proposed method enables us to extract the watermark under the black-box scenario, which is computationally efficient for use. Experimental results have also verified the feasibility, superiority and practicality. This work provides a new perspective different from mainstream works, which may shed light on future research.
- Abstract(参考訳): 既存の大規模言語モデル(LLM)の透かし手法は、トークンサンプリング予測や後処理を調整することで、主に透かしを埋め込む。
トレーニングや微調整に基づく従来の透かし法はLLMにも拡張可能である。
しかし、そのほとんどはホワイトボックスのシナリオに限られており、LLMの膨大なパラメータのために非常に時間がかかります。
本稿では, LLMの内部パラメータを操作することで, LLMに透かしを埋め込んで, LLMにアクセスすることなく, 生成されたテキストから抽出できる新しい透かしフレームワークを提案する。
関連手法と比較して,提案手法は透かしとLLMの固有パラメータを絡み合わせることで,透かしの頑健さと受容性のバランスを良くする。
さらに,提案手法により,ブラックボックスシナリオ下での透かしの抽出が可能である。
実験の結果、実現可能性、優越性、実用性も検証された。
この研究は、主要な研究とは異なる新たな視点を提供し、将来の研究に光を当てるかもしれない。
関連論文リスト
- SimMark: A Robust Sentence-Level Similarity-Based Watermarking Algorithm for Large Language Models [4.069844339028727]
SimMarkは、大規模言語モデル(LLM)のための堅牢な文レベルの透かしアルゴリズムである。
検出可能な統計的パターンを組み込んでおり、ソフトカウント機構を採用している。
我々は,LLM生成コンテンツのロバストな透かしのための新しいベンチマークをSimMarkが設定していることを示す。
論文 参考訳(メタデータ) (2025-02-05T00:21:01Z) - Less is More: Sparse Watermarking in LLMs with Enhanced Text Quality [27.592486717044455]
テキストに分散した生成されたトークンの小さなサブセットに透かしを適用することで、このトレードオフを緩和することを目的とした新しいタイプの透かしであるスパース透かしを提案する。
提案手法は,従来の透かし手法よりも高い品質のテキストを生成しつつ,高い検出性を実現することを示す。
論文 参考訳(メタデータ) (2024-07-17T18:52:12Z) - Waterfall: Framework for Robust and Scalable Text Watermarking and Provenance for LLMs [36.068335914828396]
我々は、堅牢でスケーラブルなテキスト透かしのための最初のトレーニング不要のフレームワークであるWaterfallを提案する。
ウォーターフォールは、SOTAの記事テキストによるウォーターマーキング法と比較して、スケーラビリティ、堅牢な検証可能性、計算効率を著しく向上させる。
論文 参考訳(メタデータ) (2024-07-05T10:51:33Z) - MarkLLM: An Open-Source Toolkit for LLM Watermarking [80.00466284110269]
MarkLLMは、LLMウォーターマーキングアルゴリズムを実装するためのオープンソースのツールキットである。
評価のために、MarkLLMは3つの視点にまたがる12のツールと、2種類の自動評価パイプラインを提供する。
論文 参考訳(メタデータ) (2024-05-16T12:40:01Z) - Topic-Based Watermarks for Large Language Models [46.71493672772134]
本稿では,Large Language Model (LLM) 出力のための軽量なトピック誘導型透かし方式を提案する。
本手法は,Google の SynthID-Text など,業界をリードするシステムに匹敵する難易度を実現する。
論文 参考訳(メタデータ) (2024-04-02T17:49:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。