論文の概要: Watermarking Needs Input Repetition Masking
- arxiv url: http://arxiv.org/abs/2504.12229v1
- Date: Wed, 16 Apr 2025 16:25:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:40:40.556050
- Title: Watermarking Needs Input Repetition Masking
- Title(参考訳): ウォーターマーキングは入力繰り返しマスキングを必要とする
- Authors: David Khachaturov, Robert Mullins, Ilia Shumailov, Sumanth Dathathri,
- Abstract要約: 人間とLarge Language Models(LLM)の両方が、一見不可能な設定でも、透かし信号を含む模倣に終わることを示す。
これは現在の学術的な仮定に挑戦し、長期的な透かしが信頼できるためには、偽陽性の可能性が著しく低い必要があることを示唆している。
- 参考スコア(独自算出の注目度): 13.309409725789433
- License:
- Abstract: Recent advancements in Large Language Models (LLMs) raised concerns over potential misuse, such as for spreading misinformation. In response two counter measures emerged: machine learning-based detectors that predict if text is synthetic, and LLM watermarking, which subtly marks generated text for identification and attribution. Meanwhile, humans are known to adjust language to their conversational partners both syntactically and lexically. By implication, it is possible that humans or unwatermarked LLMs could unintentionally mimic properties of LLM generated text, making counter measures unreliable. In this work we investigate the extent to which such conversational adaptation happens. We call the concept $\textit{mimicry}$ and demonstrate that both humans and LLMs end up mimicking, including the watermarking signal even in seemingly improbable settings. This challenges current academic assumptions and suggests that for long-term watermarking to be reliable, the likelihood of false positives needs to be significantly lower, while longer word sequences should be used for seeding watermarking mechanisms.
- Abstract(参考訳): LLM(Large Language Models)の最近の進歩は、誤情報の普及など、潜在的な誤用に対する懸念を引き起こしている。
これに反応して、テキストが合成されているかどうかを予測する機械学習ベースの検出器と、生成されたテキストの識別と属性を微妙にマークするLCM透かしという2つの対策が現れた。
一方、人間は、構文的にも語彙的にも、会話の相手に言語を適応させることが知られている。
このことから, LLM生成テキストの特性を意図せず模倣することができ, 対策の信頼性を損なう可能性が示唆された。
本研究では,このような会話適応の程度について検討する。
私たちはこの概念を$\textit{mimicry}$と呼び、人間とLLMの両方が、一見不可能な設定でも、透かし信号を含む模倣に終わることを実証します。
これは現在の学術的な仮定に挑戦し、長期間の透かしが信頼できるためには、偽陽性の可能性が著しく低くなければならない一方で、より長い単語列がウォーターマーキング機構の種付けに使用されるべきであることを示唆している。
関連論文リスト
- Can Watermarking Large Language Models Prevent Copyrighted Text Generation and Hide Training Data? [62.72729485995075]
著作権文書の生成に対する抑止剤としての透かしの有効性について検討する。
我々は、透かしがメンバーシップ推論攻撃(MIA)の成功率に悪影響を及ぼすことを発見した。
透かしにおける最近のMIAの成功率を改善するための適応的手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T16:53:09Z) - Less is More: Sparse Watermarking in LLMs with Enhanced Text Quality [27.592486717044455]
テキストに分散した生成されたトークンの小さなサブセットに透かしを適用することで、このトレードオフを緩和することを目的とした新しいタイプの透かしであるスパース透かしを提案する。
提案手法は,従来の透かし手法よりも高い品質のテキストを生成しつつ,高い検出性を実現することを示す。
論文 参考訳(メタデータ) (2024-07-17T18:52:12Z) - Large Language Model Watermark Stealing With Mixed Integer Programming [51.336009662771396]
大きな言語モデル(LLM)の透かしは、著作権に対処し、AI生成したテキストを監視し、その誤用を防ぐことを約束している。
近年の研究では、多数のキーを用いた透かし手法は、攻撃の除去に影響を受けやすいことが示されている。
我々は,最先端のLLM透かしスキームに対する新たなグリーンリスト盗難攻撃を提案する。
論文 参考訳(メタデータ) (2024-05-30T04:11:17Z) - WatME: Towards Lossless Watermarking Through Lexical Redundancy [58.61972059246715]
本研究では,認知科学レンズを用いた大規模言語モデル(LLM)の異なる機能に対する透かしの効果を評価する。
透かしをシームレスに統合するための相互排他型透かし(WatME)を導入する。
論文 参考訳(メタデータ) (2023-11-16T11:58:31Z) - A Robust Semantics-based Watermark for Large Language Model against Paraphrasing [50.84892876636013]
大規模言語モデル(LLM)は、様々な自然言語処理において優れた能力を示している。
LLMは不適切にも違法にも使用できるという懸念がある。
本稿ではセマンティクスに基づく透かしフレームワークSemaMarkを提案する。
論文 参考訳(メタデータ) (2023-11-15T06:19:02Z) - Towards Codable Watermarking for Injecting Multi-bits Information to LLMs [86.86436777626959]
大規模言語モデル(LLM)は、流布とリアリズムを増大させるテキストを生成する。
既存の透かし方式はエンコーディング非効率であり、多様な情報エンコーディングニーズに柔軟に対応できない。
テキスト透かしを複数ビットでカスタマイズ可能な情報を運ぶことができるCTWL (Codable Text Watermarking for LLMs) を提案する。
論文 参考訳(メタデータ) (2023-07-29T14:11:15Z) - On the Reliability of Watermarks for Large Language Models [95.87476978352659]
本研究では,人間による書き直し後の透かしテキストの堅牢性,非透かしLDMによる言い換え,あるいはより長い手書き文書への混在性について検討する。
人や機械の言い回しをしても、透かしは検出可能である。
また、大きな文書に埋め込まれた透かし付きテキストの短いスパンに敏感な新しい検出手法についても検討する。
論文 参考訳(メタデータ) (2023-06-07T17:58:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。