論文の概要: LLM-Text Watermarking based on Lagrange Interpolation
- arxiv url: http://arxiv.org/abs/2505.05712v3
- Date: Tue, 13 May 2025 02:12:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 12:30:10.42802
- Title: LLM-Text Watermarking based on Lagrange Interpolation
- Title(参考訳): ラグランジュ補間に基づくLLMテキスト透かし
- Authors: Jarosław Janas, Paweł Morawiecki, Josef Pieprzyk,
- Abstract要約: 本研究では,ラグランジュ逆数に基づく LLM 生成テキストの透かし方式を提案する。
中心となる考え方は、一直線上の点$(x, f(x))$の連続列を埋め込むことである。
抽出中、アルゴリズムは元の点と多くの突発的な点を復元する。
- 参考スコア(独自算出の注目度): 1.3904534961196113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of LLMs (Large Language Models) has established them as a foundational technology for many AI and ML-powered human computer interactions. A critical challenge in this context is the attribution of LLM-generated text -- either to the specific language model that produced it or to the individual user who embedded their identity via a so-called multi-bit watermark. This capability is essential for combating misinformation, fake news, misinterpretation, and plagiarism. One of the key techniques for addressing this challenge is digital watermarking. This work presents a watermarking scheme for LLM-generated text based on Lagrange interpolation, enabling the recovery of a multi-bit author identity even when the text has been heavily redacted by an adversary. The core idea is to embed a continuous sequence of points $(x, f(x))$ that lie on a single straight line. The $x$-coordinates are computed pseudorandomly using a cryptographic hash function $H$ applied to the concatenation of the previous token's identity and a secret key $s_k$. Crucially, the $x$-coordinates do not need to be embedded into the text -- only the corresponding $f(x)$ values are embedded. During extraction, the algorithm recovers the original points along with many spurious ones, forming an instance of the Maximum Collinear Points (MCP) problem, which can be solved efficiently. Experimental results demonstrate that the proposed method is highly effective, allowing the recovery of the author identity even when as few as three genuine points remain after adversarial manipulation.
- Abstract(参考訳): LLM(Large Language Models)の急速な進歩は、多くのAIとMLを利用した人間のコンピュータインタラクションの基盤技術として確立されている。
この文脈における重要な課題は、LLM生成したテキストの属性 -- 生成した特定の言語モデル、あるいはいわゆるマルチビット透かしを通じて自身のIDを埋め込んだ個人ユーザ – である。
この能力は誤報、偽ニュース、誤解釈、盗作と戦うために不可欠である。
この課題に対処する重要なテクニックの1つは、デジタル透かしである。
本研究では,Lagrange 補間に基づく LLM 生成テキストの透かし方式を提案する。
中心となる考え方は、一直線上の点$(x, f(x))$の連続列を埋め込むことである。
x$-コーディネートは、前のトークンのIDと秘密鍵の$s_k$の結合に適用される暗号ハッシュ関数$H$を使って、擬似ランダムに計算される。
重要なことに、$x$-coordinatesはテキストに埋め込む必要はなく、対応する$f(x)$値だけが埋め込まれている。
抽出中、アルゴリズムは、多くのスプリアス点とともに元の点を復元し、効率よく解ける最大衝突点(MCP)問題のインスタンスを形成する。
実験の結果,提案手法は高い有効性を示し,敵の操作後に3つの真の点が残っている場合でも,著者の身元を復元することができることがわかった。
関連論文リスト
- Signal Watermark on Large Language Models [28.711745671275477]
本稿では,Large Language Models (LLMs) によるテキストに特定の透かしを埋め込む透かし手法を提案する。
この技術は、透かしが人間に見えないことを保証するだけでなく、モデル生成テキストの品質と文法的整合性も維持する。
提案手法は複数のLDMに対して実験的に検証され,高い検出精度を維持している。
論文 参考訳(メタデータ) (2024-10-09T04:49:03Z) - Large Language Model Watermark Stealing With Mixed Integer Programming [51.336009662771396]
大きな言語モデル(LLM)の透かしは、著作権に対処し、AI生成したテキストを監視し、その誤用を防ぐことを約束している。
近年の研究では、多数のキーを用いた透かし手法は、攻撃の除去に影響を受けやすいことが示されている。
我々は,最先端のLLM透かしスキームに対する新たなグリーンリスト盗難攻撃を提案する。
論文 参考訳(メタデータ) (2024-05-30T04:11:17Z) - Topic-Based Watermarks for Large Language Models [46.71493672772134]
本稿では,Large Language Model (LLM) 出力のための軽量なトピック誘導型透かし方式を提案する。
本手法は,Google の SynthID-Text など,業界をリードするシステムに匹敵する難易度を実現する。
論文 参考訳(メタデータ) (2024-04-02T17:49:40Z) - Provably Robust Multi-bit Watermarking for AI-generated Text [37.21416140194606]
大規模言語モデル(LLM)は、人間の言語に似たテキストを生成する顕著な能力を示した。
犯罪者が偽ニュースやフィッシングメールなどの偽装コンテンツを作成するために悪用することもある。
ウォーターマーキングはこれらの懸念に対処するための重要なテクニックであり、メッセージをテキストに埋め込む。
論文 参考訳(メタデータ) (2024-01-30T08:46:48Z) - WatME: Towards Lossless Watermarking Through Lexical Redundancy [58.61972059246715]
本研究では,認知科学レンズを用いた大規模言語モデル(LLM)の異なる機能に対する透かしの効果を評価する。
透かしをシームレスに統合するための相互排他型透かし(WatME)を導入する。
論文 参考訳(メタデータ) (2023-11-16T11:58:31Z) - A Robust Semantics-based Watermark for Large Language Model against Paraphrasing [50.84892876636013]
大規模言語モデル(LLM)は、様々な自然言語処理において優れた能力を示している。
LLMは不適切にも違法にも使用できるという懸念がある。
本稿ではセマンティクスに基づく透かしフレームワークSemaMarkを提案する。
論文 参考訳(メタデータ) (2023-11-15T06:19:02Z) - Towards Codable Watermarking for Injecting Multi-bits Information to LLMs [86.86436777626959]
大規模言語モデル(LLM)は、流布とリアリズムを増大させるテキストを生成する。
既存の透かし方式はエンコーディング非効率であり、多様な情報エンコーディングニーズに柔軟に対応できない。
テキスト透かしを複数ビットでカスタマイズ可能な情報を運ぶことができるCTWL (Codable Text Watermarking for LLMs) を提案する。
論文 参考訳(メタデータ) (2023-07-29T14:11:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。