論文の概要: ESpeW: Robust Copyright Protection for LLM-based EaaS via Embedding-Specific Watermark
- arxiv url: http://arxiv.org/abs/2410.17552v2
- Date: Thu, 24 Oct 2024 02:35:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:52:25.905897
- Title: ESpeW: Robust Copyright Protection for LLM-based EaaS via Embedding-Specific Watermark
- Title(参考訳): ESpeW: 埋め込み特有な透かしによるLCMベースのEaaSのロバスト著作権保護
- Authors: Zongqi Wang, Baoyuan Wu, Jingyuan Deng, Yujiu Yang,
- Abstract要約: 組み込み・アズ・ア・サービス(Eding)はAIアプリケーションにおいて重要な役割を担っている。
編集はモデル抽出攻撃に対して脆弱であり、著作権保護の緊急の必要性を強調している。
そこで我々は,Edingの著作権保護を堅牢にするための新しい埋め込み専用透かし (ESpeW) 機構を提案する。
- 参考スコア(独自算出の注目度): 50.08021440235581
- License:
- Abstract: Embeddings as a Service (EaaS) is emerging as a crucial role in AI applications. Unfortunately, EaaS is vulnerable to model extraction attacks, highlighting the urgent need for copyright protection. Although some preliminary works propose applying embedding watermarks to protect EaaS, recent research reveals that these watermarks can be easily removed. Hence, it is crucial to inject robust watermarks resistant to watermark removal attacks. Existing watermarking methods typically inject a target embedding into embeddings through linear interpolation when the text contains triggers. However, this mechanism results in each watermarked embedding having the same component, which makes the watermark easy to identify and eliminate. Motivated by this, in this paper, we propose a novel embedding-specific watermarking (ESpeW) mechanism to offer robust copyright protection for EaaS. Our approach involves injecting unique, yet readily identifiable watermarks into each embedding. Watermarks inserted by ESpeW are designed to maintain a significant distance from one another and to avoid sharing common components, thus making it significantly more challenging to remove the watermarks. Extensive experiments on four popular datasets demonstrate that ESpeW can even watermark successfully against a highly aggressive removal strategy without sacrificing the quality of embeddings. Code is available at https://github.com/liudan193/ESpeW.
- Abstract(参考訳): AIアプリケーションにおいて、埋め込み・アズ・ア・サービス(EaaS)が重要な役割を担っている。
残念ながら、EaaSはモデル抽出攻撃に対して脆弱であり、著作権保護の緊急の必要性を強調している。
いくつかの予備的な研究は、EaaSを保護するために埋め込み透かしを適用することを提案しているが、最近の研究はこれらの透かしを簡単に除去できることを明らかにしている。
したがって、透かし除去攻撃に抵抗する堅牢な透かしを注入することが重要である。
既存の透かし法は通常、テキストがトリガーを含むとき、線形補間を通してターゲットの埋め込みを埋め込みに注入する。
しかし、この機構は同一成分を有する各透かし埋め込みを生じるため、透かしの識別や除去が容易になる。
そこで本稿では,EaaSの堅牢な著作権保護を実現するために,新しい埋め込み専用透かし(ESpeW)機構を提案する。
当社のアプローチでは,各埋め込みにユニークな,かつ容易に識別可能な透かしを注入する。
ESpeWによって挿入された透かしは、互いにかなり距離を保ち、共通成分の共有を避けるように設計されているため、透かしの除去が著しく困難である。
4つの一般的なデータセットに対する大規模な実験は、ESpeWが埋め込みの品質を犠牲にすることなく、非常に攻撃的な除去戦略に対してうまくウォーターマークできることを示している。
コードはhttps://github.com/liudan193/ESpeW.comで入手できる。
関連論文リスト
- Can Watermarked LLMs be Identified by Users via Crafted Prompts? [55.460327393792156]
この研究は、透かし付き大言語モデル(LLM)の非受容性を初めて研究したものである。
我々は、よく設計されたプロンプトを通して透かしを検出する、Water-Probeと呼ばれる識別アルゴリズムを設計する。
実験の結果、ほとんどの主流の透かしアルゴリズムは、よく設計されたプロンプトと容易に識別できることがわかった。
論文 参考訳(メタデータ) (2024-10-04T06:01:27Z) - Steganalysis on Digital Watermarking: Is Your Defense Truly Impervious? [21.06493827123594]
ステガナリシス攻撃は 最小限の知覚歪みで 透かしを抽出し除去できる
平均的な透かし画像の集合は、その下にある透かしパターンを明らかにすることができる。
本稿では,コンテンツ適応型透かし戦略とステガナリシスに対するセキュリティ評価を実施するためのセキュリティガイドラインを提案する。
論文 参考訳(メタデータ) (2024-06-13T12:01:28Z) - Lost in Overlap: Exploring Watermark Collision in LLMs [6.398660996031915]
我々は、透かし攻撃の斬新で一般的な哲学として透かし衝突を導入する。
我々は、透かし衝突が全てのロジットベースの透かしアルゴリズムに脅威をもたらすという総合的なデモンストレーションを提供する。
論文 参考訳(メタデータ) (2024-03-15T05:06:21Z) - DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - WARDEN: Multi-Directional Backdoor Watermarks for Embedding-as-a-Service Copyright Protection [7.660430606056949]
本稿では,複数の可能な透かし方向を組み込むことで,透かしの除去をより困難にするための新しいプロトコルを提案する。
我々の防衛アプローチであるWARDENは、特に透かしのステルスネスを高め、CSE攻撃に対する効果を実証的に示している。
論文 参考訳(メタデータ) (2024-03-03T10:39:27Z) - Turning Your Strength into Watermark: Watermarking Large Language Model via Knowledge Injection [66.26348985345776]
本稿では,知識注入に基づく大規模言語モデル(LLM)のための新しい透かし手法を提案する。
透かし埋め込みの段階では、まず選択した知識に透かしを埋め込んで、透かし付き知識を得る。
透かし抽出段階では、疑わしいLLMを問うために、透かし付き知識に関する質問を設計する。
実験により, 透かし抽出の成功率は100%近くであり, 提案手法の有効性, 忠実性, ステルス性, 堅牢性を示した。
論文 参考訳(メタデータ) (2023-11-16T03:22:53Z) - Supervised GAN Watermarking for Intellectual Property Protection [33.827150843939094]
本稿では,GAN(Generative Adversarial Networks)のための透かし手法を提案する。
目的は、GANモデルで生成された画像が見えない透かし(署名)を含むように、GANモデルに透かしを付けることである。
その結果,本手法は生成画像内に見えない透かしを効果的に埋め込むことができることがわかった。
論文 参考訳(メタデータ) (2022-09-07T20:52:05Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。