論文の概要: Provable Robust Watermarking for AI-Generated Text
- arxiv url: http://arxiv.org/abs/2306.17439v1
- Date: Fri, 30 Jun 2023 07:24:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 13:23:24.467909
- Title: Provable Robust Watermarking for AI-Generated Text
- Title(参考訳): AI生成テキストのロバストな透かし
- Authors: Xuandong Zhao, Prabhanjan Ananth, Lei Li, Yu-Xiang Wang
- Abstract要約: GPTWatermarkは、あるテキストが特定のモデルに由来するかどうかを確認するために設計された堅牢なソリューションである。
我々の透かし付き言語モデルは, 生成品質, 検出精度, 回避攻撃に対するセキュリティを確実に保証していることを示す。
- 参考スコア(独自算出の注目度): 38.21402109027997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI-generated text increasingly resembles human-written content, the
ability to detect machine-generated text becomes crucial. To address this
challenge, we present GPTWatermark, a robust and high-quality solution designed
to ascertain whether a piece of text originates from a specific model. Our
approach extends existing watermarking strategies and employs a fixed group
design to enhance robustness against editing and paraphrasing attacks. We show
that our watermarked language model enjoys strong provable guarantees on
generation quality, correctness in detection, and security against evasion
attacks. Experimental results on various large language models (LLMs) and
diverse datasets demonstrate that our method achieves superior detection
accuracy and comparable generation quality in perplexity, thus promoting the
responsible use of LLMs.
- Abstract(参考訳): AIが生成するテキストは、人書きのコンテンツに近づきつつあるので、機械が生成するテキストを検出する能力は重要になる。
この課題に対処するために、あるテキストが特定のモデルに由来するかどうかを確認するために設計された、堅牢で高品質なソリューションであるGPTWatermarkを提案する。
提案手法は既存の透かし戦略を拡張し,編集やパラフレーズ攻撃に対する堅牢性を高めるために固定グループ設計を採用する。
我々の透かし付き言語モデルは, 生成品質, 検出精度, 回避攻撃に対するセキュリティを確実に保証していることを示す。
様々な大規模言語モデル(LLM)と多種多様なデータセットの実験結果から,本手法はパープレキシティにおいて優れた検出精度と同等な生成品質を達成し,LCMの責任を負う使用を促進することが示されている。
関連論文リスト
- Signal Watermark on Large Language Models [28.711745671275477]
本稿では,Large Language Models (LLMs) によるテキストに特定の透かしを埋め込む透かし手法を提案する。
この技術は、透かしが人間に見えないことを保証するだけでなく、モデル生成テキストの品質と文法的整合性も維持する。
提案手法は複数のLDMに対して実験的に検証され,高い検出精度を維持している。
論文 参考訳(メタデータ) (2024-10-09T04:49:03Z) - Can Watermarked LLMs be Identified by Users via Crafted Prompts? [55.460327393792156]
この研究は、透かし付き大言語モデル(LLM)の非受容性を初めて研究したものである。
我々は、よく設計されたプロンプトを通して透かしを検出する、Water-Probeと呼ばれる識別アルゴリズムを設計する。
実験の結果、ほとんどの主流の透かしアルゴリズムは、よく設計されたプロンプトと容易に識別できることがわかった。
論文 参考訳(メタデータ) (2024-10-04T06:01:27Z) - Less is More: Sparse Watermarking in LLMs with Enhanced Text Quality [27.592486717044455]
テキストに分散した生成されたトークンの小さなサブセットに透かしを適用することで、このトレードオフを緩和することを目的とした新しいタイプの透かしであるスパース透かしを提案する。
提案手法は,従来の透かし手法よりも高い品質のテキストを生成しつつ,高い検出性を実現することを示す。
論文 参考訳(メタデータ) (2024-07-17T18:52:12Z) - Adaptive Text Watermark for Large Language Models [8.100123266517299]
プロンプトやモデルの知識を必要とせずに、強力なセキュリティ、堅牢性、および透かしを検出する能力を維持しつつ、高品質な透かしテキストを生成することは困難である。
本稿では,この問題に対処するための適応型透かし手法を提案する。
論文 参考訳(メタデータ) (2024-01-25T03:57:12Z) - New Evaluation Metrics Capture Quality Degradation due to LLM
Watermarking [28.53032132891346]
大規模言語モデル(LLM)のための透かしアルゴリズム評価のための2つの新しい使いやすさ手法を提案する。
種々のデータセットを用いて実験を行った結果,従来の透かし法は単純な分類器でも検出可能であることがわかった。
以上の結果から,透かしの堅牢性とテキスト品質のトレードオフを浮き彫りにし,透かしの質を評価する上で,より情報的な指標を持つことの重要性を強調した。
論文 参考訳(メタデータ) (2023-12-04T22:56:31Z) - WatME: Towards Lossless Watermarking Through Lexical Redundancy [58.61972059246715]
本研究では,認知科学レンズを用いた大規模言語モデル(LLM)の異なる機能に対する透かしの効果を評価する。
透かしをシームレスに統合するための相互排他型透かし(WatME)を導入する。
論文 参考訳(メタデータ) (2023-11-16T11:58:31Z) - Turning Your Strength into Watermark: Watermarking Large Language Model via Knowledge Injection [66.26348985345776]
本稿では,知識注入に基づく大規模言語モデル(LLM)のための新しい透かし手法を提案する。
透かし埋め込みの段階では、まず選択した知識に透かしを埋め込んで、透かし付き知識を得る。
透かし抽出段階では、疑わしいLLMを問うために、透かし付き知識に関する質問を設計する。
実験により, 透かし抽出の成功率は100%近くであり, 提案手法の有効性, 忠実性, ステルス性, 堅牢性を示した。
論文 参考訳(メタデータ) (2023-11-16T03:22:53Z) - Towards Codable Watermarking for Injecting Multi-bits Information to LLMs [86.86436777626959]
大規模言語モデル(LLM)は、流布とリアリズムを増大させるテキストを生成する。
既存の透かし方式はエンコーディング非効率であり、多様な情報エンコーディングニーズに柔軟に対応できない。
テキスト透かしを複数ビットでカスタマイズ可能な情報を運ぶことができるCTWL (Codable Text Watermarking for LLMs) を提案する。
論文 参考訳(メタデータ) (2023-07-29T14:11:15Z) - On the Reliability of Watermarks for Large Language Models [95.87476978352659]
本研究では,人間による書き直し後の透かしテキストの堅牢性,非透かしLDMによる言い換え,あるいはより長い手書き文書への混在性について検討する。
人や機械の言い回しをしても、透かしは検出可能である。
また、大きな文書に埋め込まれた透かし付きテキストの短いスパンに敏感な新しい検出手法についても検討する。
論文 参考訳(メタデータ) (2023-06-07T17:58:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。