論文の概要: LLM Watermarking Using Mixtures and Statistical-to-Computational Gaps
- arxiv url: http://arxiv.org/abs/2505.01484v1
- Date: Fri, 02 May 2025 16:36:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.146138
- Title: LLM Watermarking Using Mixtures and Statistical-to-Computational Gaps
- Title(参考訳): 混合と統計計算ギャップを用いたLLM透かし
- Authors: Pedro Abdalla, Roman Vershynin,
- Abstract要約: テキストが与えられたら、大きな言語モデル(LLM)が生成したのか、それとも人間が生成したのかを判断できますか?
閉鎖条件下では検出不能な透かし方式を提案する。
また、敵がほとんどのモデルにアクセスできる厳しいオープン環境では、除去不能な透かし方式を提案する。
- 参考スコア(独自算出の注目度): 3.9287497907611875
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Given a text, can we determine whether it was generated by a large language model (LLM) or by a human? A widely studied approach to this problem is watermarking. We propose an undetectable and elementary watermarking scheme in the closed setting. Also, in the harder open setting, where the adversary has access to most of the model, we propose an unremovable watermarking scheme.
- Abstract(参考訳): テキストが与えられたら、大きな言語モデル(LLM)が生成したのか、それとも人間が生成したのかを判断できますか?
この問題に対する広く研究されているアプローチは透かしである。
閉鎖条件下では検出不能かつ初等的な透かし方式を提案する。
また、敵がほとんどのモデルにアクセスできる厳しいオープン環境では、除去不能な透かし方式を提案する。
関連論文リスト
- Toward Breaking Watermarks in Distortion-free Large Language Models [11.922206306917435]
我々は,LSMを「妥協」し,スプーフィング攻撃を行うことが可能であることを示す。
具体的には,ウォーターマーキングに用いる秘密鍵を正確に推定する混合整数線形プログラミングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-25T19:52:55Z) - Large Language Model Watermark Stealing With Mixed Integer Programming [51.336009662771396]
大きな言語モデル(LLM)の透かしは、著作権に対処し、AI生成したテキストを監視し、その誤用を防ぐことを約束している。
近年の研究では、多数のキーを用いた透かし手法は、攻撃の除去に影響を受けやすいことが示されている。
我々は,最先端のLLM透かしスキームに対する新たなグリーンリスト盗難攻撃を提案する。
論文 参考訳(メタデータ) (2024-05-30T04:11:17Z) - Black-Box Detection of Language Model Watermarks [1.9374282535132377]
我々は,3つの人気のある透かしスキームファミリーのパラメータを検出し,推定するための厳密な統計試験を開発した。
提案手法の有効性を,多種多様なオープンソースモデルを用いて実験的に検証した。
以上の結果から,現在の透かし方式は従来考えられていたよりも検出可能であることが示唆された。
論文 参考訳(メタデータ) (2024-05-28T08:41:30Z) - Publicly-Detectable Watermarking for Language Models [45.32236917886154]
本稿では,LMの電子透かし方式について述べる。
我々は、リジェクションサンプリングを用いてLM出力に暗号署名を埋め込む。
我々は,この手法が不規則かつ歪みのないテキスト出力を生成することを証明した。
論文 参考訳(メタデータ) (2023-10-27T21:08:51Z) - Unbiased Watermark for Large Language Models [67.43415395591221]
本研究では, モデル生成出力の品質に及ぼす透かしの影響について検討した。
出力確率分布に影響を与えることなく、透かしを統合することができる。
ウォーターマークの存在は、下流タスクにおけるモデルの性能を損なうものではない。
論文 参考訳(メタデータ) (2023-09-22T12:46:38Z) - On the Reliability of Watermarks for Large Language Models [95.87476978352659]
本研究では,人間による書き直し後の透かしテキストの堅牢性,非透かしLDMによる言い換え,あるいはより長い手書き文書への混在性について検討する。
人や機械の言い回しをしても、透かしは検出可能である。
また、大きな文書に埋め込まれた透かし付きテキストの短いスパンに敏感な新しい検出手法についても検討する。
論文 参考訳(メタデータ) (2023-06-07T17:58:48Z) - A Watermark for Large Language Models [84.95327142027183]
本稿では,プロプライエタリな言語モデルのための透かしフレームワークを提案する。
透かしはテキストの品質に無視できない影響で埋め込むことができる。
言語モデルAPIやパラメータにアクセスすることなく、効率的なオープンソースアルゴリズムを使って検出することができる。
論文 参考訳(メタデータ) (2023-01-24T18:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。