論文の概要: Bypassing LLM Watermarks with Color-Aware Substitutions
- arxiv url: http://arxiv.org/abs/2403.14719v1
- Date: Tue, 19 Mar 2024 17:54:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 21:31:40.874759
- Title: Bypassing LLM Watermarks with Color-Aware Substitutions
- Title(参考訳): カラーアウェア置換によるLCM透かしのバイパス
- Authors: Qilong Wu, Varun Chandrasekaran,
- Abstract要約: セルフカラーテストベースの代替(SCTS)は、最初のカラーアウェアによる攻撃である。
SCTSは関連する作業よりも少ない編集数で透かし検出を回避した。
我々はSCTSが任意の長さの透かしテキストの透かしを除去できることを理論的にも経験的にも示している。
- 参考スコア(独自算出の注目度): 11.724935807582513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Watermarking approaches are proposed to identify if text being circulated is human or large language model (LLM) generated. The state-of-the-art watermarking strategy of Kirchenbauer et al. (2023a) biases the LLM to generate specific (``green'') tokens. However, determining the robustness of this watermarking method is an open problem. Existing attack methods fail to evade detection for longer text segments. We overcome this limitation, and propose {\em Self Color Testing-based Substitution (SCTS)}, the first ``color-aware'' attack. SCTS obtains color information by strategically prompting the watermarked LLM and comparing output tokens frequencies. It uses this information to determine token colors, and substitutes green tokens with non-green ones. In our experiments, SCTS successfully evades watermark detection using fewer number of edits than related work. Additionally, we show both theoretically and empirically that SCTS can remove the watermark for arbitrarily long watermarked text.
- Abstract(参考訳): テキストが人間か大きな言語モデル(LLM)であるかどうかを識別するために、透かし手法が提案されている。
Kirchenbauer et al (2023a) の最先端の透かし戦略は LLM を偏り、特定の (`green'') トークンを生成する。
しかし、この透かし法の堅牢性を決定することは未解決の問題である。
既存の攻撃方法は、長いテキストセグメントの検出を回避できない。
我々はこの制限を克服し、最初の「カラーアウェア」攻撃であるSCTS(Self Color Testing-based Substitution)を提案する。
SCTSは、ウォーターマークされたLCMを戦略的に促し、出力トークンの周波数を比較することで、色情報を取得する。
この情報を使ってトークンの色を決定し、緑色のトークンを非緑色のトークンに置き換える。
本実験においてSCTSは関連する作業よりも少ない編集数で透かし検出を回避した。
さらに、SCTSが任意の長さの透かしテキストの透かしを除去できることを理論的および実証的に示す。
関連論文リスト
- Can Watermarks Survive Translation? On the Cross-lingual Consistency of
Text Watermark for Large Language Models [50.49500726536929]
現在のテキスト透かし技術は、テキストが様々な言語に翻訳されるときの一貫性を欠いている。
透かしを回避するための言語横断型透かし除去攻撃(CWRA)を提案する。
CWRAは、性能を損なわずに、AUC(Area Under the Curve)を0.95から0.67に減らし、ウォーターマークを効果的に除去することができる。
論文 参考訳(メタデータ) (2024-02-21T18:48:38Z) - Provably Robust Multi-bit Watermarking for AI-generated Text via Error Correction Code [39.96262132464419]
大規模言語モデル(LLM)は、人間の言語に似たテキストを生成する能力のために広くデプロイされている。
偽ニュースやフィッシングメールなど、偽のコンテンツを作るために犯罪者に誤用される可能性がある。
透かしはLLMの誤用を軽減する重要なテクニックであり、透かしをテキストに埋め込む。
論文 参考訳(メタデータ) (2024-01-30T08:46:48Z) - A Robust Semantics-based Watermark for Large Language Model against Paraphrasing [50.84892876636013]
大規模言語モデル(LLM)は、様々な自然言語処理において優れた能力を示している。
LLMは不適切にも違法にも使用できるという懸念がある。
本稿ではセマンティクスに基づく透かしフレームワークSemaMarkを提案する。
論文 参考訳(メタデータ) (2023-11-15T06:19:02Z) - A Semantic Invariant Robust Watermark for Large Language Models [29.52715060360837]
大規模言語モデル(LLM)に対する意味不変な透かし手法を提案する。
私たちの研究における透かしのロジットは、前のトークンのセマンティクスによって決定されます。
私たちの透かしには適切なセキュリティの堅牢性があることも示しています。
論文 参考訳(メタデータ) (2023-10-10T06:49:43Z) - Towards Codable Watermarking for Injecting Multi-bits Information to LLMs [86.86436777626959]
大規模言語モデル(LLM)は、流布とリアリズムを増大させるテキストを生成する。
既存の透かし方式はエンコーディング非効率であり、多様な情報エンコーディングニーズに柔軟に対応できない。
テキスト透かしを複数ビットでカスタマイズ可能な情報を運ぶことができるCTWL (Codable Text Watermarking for LLMs) を提案する。
論文 参考訳(メタデータ) (2023-07-29T14:11:15Z) - On the Reliability of Watermarks for Large Language Models [95.87476978352659]
本研究では,人間による書き直し後の透かしテキストの堅牢性,非透かしLDMによる言い換え,あるいはより長い手書き文書への混在性について検討する。
人や機械の言い回しをしても、透かしは検出可能である。
また、大きな文書に埋め込まれた透かし付きテキストの短いスパンに敏感な新しい検出手法についても検討する。
論文 参考訳(メタデータ) (2023-06-07T17:58:48Z) - Watermarking Text Generated by Black-Box Language Models [103.52541557216766]
テキスト生成中に透かしを埋め込むことのできるホワイトボックスLCMに対して,透かしに基づく手法が提案されている。
リストを認識した検出アルゴリズムは、透かし付きテキストを識別することができる。
我々はブラックボックス言語モデル利用シナリオのための透かしフレームワークを開発する。
論文 参考訳(メタデータ) (2023-05-14T07:37:33Z) - A Watermark for Large Language Models [84.95327142027183]
本稿では,プロプライエタリな言語モデルのための透かしフレームワークを提案する。
透かしはテキストの品質に無視できない影響で埋め込むことができる。
言語モデルAPIやパラメータにアクセスすることなく、効率的なオープンソースアルゴリズムを使って検出することができる。
論文 参考訳(メタデータ) (2023-01-24T18:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。