論文の概要: LLM-Text Watermarking based on Lagrange Interpolation
- arxiv url: http://arxiv.org/abs/2505.05712v1
- Date: Fri, 09 May 2025 01:19:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.11901
- Title: LLM-Text Watermarking based on Lagrange Interpolation
- Title(参考訳): ラグランジュ補間に基づくLLMテキスト透かし
- Authors: Jarosław Janas, Paweł Morawiecki, Josef Pieprzyk,
- Abstract要約: 本研究では,Lagrange に基づく LLM 生成テキストの透かし方式を提案する。
これにより、敵対者がテキストを大量に再編集した場合でも、秘密の作者の身元を復元することができる。
このスキームは極めて効果的であり、3つのポイントが敵の操作に耐えられる場合、著者のアイデンティティの回復を可能にする。
- 参考スコア(独自算出の注目度): 1.3904534961196113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of LLMs (Large Language Models) has established them as a foundational technology for many AI and ML powered human computer interactions. A critical challenge in this context is the attribution of LLM-generated text, either to the specific language model used or to the individual user who generated it. This is essential for combating misinformation, fake news, misinterpretation, and plagiarism. One of the key techniques for addressing this issue is watermarking. This work presents a watermarking scheme for LLM-generated text based on Lagrange interpolation, which enables the recovery of a secret author identity even when the text has been heavily redacted by an adversary. The core idea is to embed a continuous sequence of points (x, f(x)) that lie on a single straight line. The x-coordinates are generated pseudorandomly using either an LFSR (when security is not a priority) or a cryptographically secure NFSR for high-security applications. The scheme efficiency and resilience to adversarial modifications are analysed. Experimental results show that the proposed method is highly effective, allowing the recovery of the author identity when as few as three points survive adversarial manipulation.
- Abstract(参考訳): LLM(Large Language Models)の急速な進歩は、多くのAIとMLによる人間のコンピュータインタラクションの基盤技術として確立されている。
この文脈における重要な課題は LLM 生成したテキストの帰属であり、使用する言語モデルや生成した個々のユーザへの帰属である。
これは誤報、偽ニュース、誤解釈、盗作と戦うために不可欠である。
この問題に対処する重要なテクニックの1つは、透かしである。
本研究では,Lagrange補間に基づくLLM生成テキストの透かし方式を提案する。
中心となる考え方は、一直線上の点 (x, f(x)) の連続列を埋め込むことである。
x座標は、LFSR(セキュリティが優先されていない場合)または高セキュリティアプリケーションに対して暗号的にセキュアなNFSRを使用して擬似ランダムに生成される。
逆修正に対するスキーム効率とレジリエンスを解析する。
実験の結果,提案手法は高い有効性を示し,3つのポイントが対数操作に耐えられる場合に,著者の身元を復元できることがわかった。
関連論文リスト
- Signal Watermark on Large Language Models [28.711745671275477]
本稿では,Large Language Models (LLMs) によるテキストに特定の透かしを埋め込む透かし手法を提案する。
この技術は、透かしが人間に見えないことを保証するだけでなく、モデル生成テキストの品質と文法的整合性も維持する。
提案手法は複数のLDMに対して実験的に検証され,高い検出精度を維持している。
論文 参考訳(メタデータ) (2024-10-09T04:49:03Z) - Large Language Model Watermark Stealing With Mixed Integer Programming [51.336009662771396]
大きな言語モデル(LLM)の透かしは、著作権に対処し、AI生成したテキストを監視し、その誤用を防ぐことを約束している。
近年の研究では、多数のキーを用いた透かし手法は、攻撃の除去に影響を受けやすいことが示されている。
我々は,最先端のLLM透かしスキームに対する新たなグリーンリスト盗難攻撃を提案する。
論文 参考訳(メタデータ) (2024-05-30T04:11:17Z) - Topic-Based Watermarks for Large Language Models [46.71493672772134]
本稿では,Large Language Model (LLM) 出力のための軽量なトピック誘導型透かし方式を提案する。
本手法は,Google の SynthID-Text など,業界をリードするシステムに匹敵する難易度を実現する。
論文 参考訳(メタデータ) (2024-04-02T17:49:40Z) - Provably Robust Multi-bit Watermarking for AI-generated Text [37.21416140194606]
大規模言語モデル(LLM)は、人間の言語に似たテキストを生成する顕著な能力を示した。
犯罪者が偽ニュースやフィッシングメールなどの偽装コンテンツを作成するために悪用することもある。
ウォーターマーキングはこれらの懸念に対処するための重要なテクニックであり、メッセージをテキストに埋め込む。
論文 参考訳(メタデータ) (2024-01-30T08:46:48Z) - WatME: Towards Lossless Watermarking Through Lexical Redundancy [58.61972059246715]
本研究では,認知科学レンズを用いた大規模言語モデル(LLM)の異なる機能に対する透かしの効果を評価する。
透かしをシームレスに統合するための相互排他型透かし(WatME)を導入する。
論文 参考訳(メタデータ) (2023-11-16T11:58:31Z) - A Robust Semantics-based Watermark for Large Language Model against Paraphrasing [50.84892876636013]
大規模言語モデル(LLM)は、様々な自然言語処理において優れた能力を示している。
LLMは不適切にも違法にも使用できるという懸念がある。
本稿ではセマンティクスに基づく透かしフレームワークSemaMarkを提案する。
論文 参考訳(メタデータ) (2023-11-15T06:19:02Z) - Towards Codable Watermarking for Injecting Multi-bits Information to LLMs [86.86436777626959]
大規模言語モデル(LLM)は、流布とリアリズムを増大させるテキストを生成する。
既存の透かし方式はエンコーディング非効率であり、多様な情報エンコーディングニーズに柔軟に対応できない。
テキスト透かしを複数ビットでカスタマイズ可能な情報を運ぶことができるCTWL (Codable Text Watermarking for LLMs) を提案する。
論文 参考訳(メタデータ) (2023-07-29T14:11:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。