論文の概要: Protecting Intellectual Property of Language Generation APIs with
Lexical Watermark
- arxiv url: http://arxiv.org/abs/2112.02701v1
- Date: Sun, 5 Dec 2021 22:54:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 17:08:07.527662
- Title: Protecting Intellectual Property of Language Generation APIs with
Lexical Watermark
- Title(参考訳): 語彙透かしを用いた言語生成apiの知的財産保護
- Authors: Xuanli He, Qiongkai Xu, Lingjuan Lyu, Fangzhao Wu, Chenguang Wang
- Abstract要約: そこで本研究では,テキスト生成APIに対して,元の出力に語彙的修正を施した新しい透かし手法を提案する。
競合するベースラインと比較して、透かしのアプローチは、p値の観点からより同定可能な性能を達成する。
私たちの透かしは、ベースラインよりも人間にとって理解しやすく直感的です。
- 参考スコア(独自算出の注目度): 27.029084291194305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, due to the breakthrough in natural language generation (NLG),
including machine translation, document summarization, image captioning, etc
NLG models have been encapsulated in cloud APIs to serve over half a billion
people worldwide and process over one hundred billion word generations per day.
Thus, NLG APIs have already become essential profitable services in many
commercial companies. Due to the substantial financial and intellectual
investments, service providers adopt a pay-as-you-use policy to promote
sustainable market growth. However, recent works have shown that cloud
platforms suffer from financial losses imposed by model extraction attacks,
which aim to imitate the functionality and utility of the victim services, thus
violating the intellectual property (IP) of cloud APIs. This work targets at
protecting IP of NLG APIs by identifying the attackers who have utilized
watermarked responses from the victim NLG APIs. However, most existing
watermarking techniques are not directly amenable for IP protection of NLG
APIs. To bridge this gap, we first present a novel watermarking method for text
generation APIs by conducting lexical modification to the original outputs.
Compared with the competitive baselines, our watermark approach achieves better
identifiable performance in terms of p-value, with fewer semantic losses. In
addition, our watermarks are more understandable and intuitive to humans than
the baselines. Finally, the empirical studies show our approach is also
applicable to queries from different domains, and is effective on the attacker
trained on a mixture of the corpus which includes less than 10\% watermarked
samples.
- Abstract(参考訳): 現在、機械翻訳、文書要約、画像キャプションなど、自然言語生成(NLG)のブレークスルーにより、NLGモデルはクラウドAPIにカプセル化され、世界中で50億人以上の人々に提供され、1日に10億以上のワード世代を処理する。
したがって、NLG APIは、すでに多くの商用企業において重要な収益源となっている。
金融・知的投資のかなりの額のため、サービス提供者は、持続可能な市場成長を促進するために、従量制の政策を採用する。
しかし、最近の研究によると、クラウドプラットフォームは、被害者サービスの機能性と実用性を模倣し、クラウドAPIの知的財産権(IP)を侵害することを目的とした、モデル抽出攻撃による金銭的損失に悩まされている。
この作業は、NLG APIのIPを保護することを目的としており、被害者のNLG APIからウォーターマークされたレスポンスを利用した攻撃者を特定する。
しかし、既存の透かし技術のほとんどは、NLG APIのIP保護には直接対応できない。
このギャップを埋めるために、まず、元の出力に語彙修正を行うことにより、テキスト生成APIのための新しい透かし方法を提案する。
競合するベースラインと比較すると,本手法は,意味的損失が少なく,p値の同定性能が向上する。
さらに、私たちの透かしはベースラインよりも人間にとって理解しやすく直感的です。
最後に,本手法は異なる領域の問合せにも適用可能であることを示し,10 %以下の透かしサンプルを含むコーパスを混合して訓練した攻撃者に対して有効であることを示す。
関連論文リスト
- Watermarking Large Language Models and the Generated Content: Opportunities and Challenges [18.01886375229288]
生成型大規模言語モデル(LLM)は知的財産権侵害や機械生成誤報の拡散に懸念を抱いている。
ウォーターマーキングは、所有権を確立し、許可されていない使用を防止し、LLM生成コンテンツの起源を追跡できる有望な手法として機能する。
本稿では,LLMをウォーターマークする際の課題と機会を要約し,共有する。
論文 参考訳(メタデータ) (2024-10-24T18:55:33Z) - PersonaMark: Personalized LLM watermarking for model protection and user attribution [20.2735173280022]
テキスト透かしは、AIが生成したテキストの検出とモデル保護の問題に対する有望な解決策として浮上している。
本稿では,文書構造を透かし情報の隠蔽媒体として利用する新しいテキスト透かし手法であるペルソナマークを提案する。
提案手法は,モデルの振舞いを最小限に抑えながら性能を保ち,透かし情報のあいまいな挿入を可能にし,強力な透かし認識能力を示す。
論文 参考訳(メタデータ) (2024-09-15T14:10:01Z) - Performance-lossless Black-box Model Watermarking [69.22653003059031]
本稿では,モデル知的財産権を保護するために,ブランチバックドアベースのモデル透かしプロトコルを提案する。
さらに,プロトコルに対する潜在的な脅威を分析し,言語モデルに対するセキュアで実現可能な透かしインスタンスを提供する。
論文 参考訳(メタデータ) (2023-12-11T16:14:04Z) - Watermarking Vision-Language Pre-trained Models for Multi-modal
Embedding as a Service [19.916419258812077]
マーカと呼ばれる言語に対して,ロバストな埋め込み型透かし手法を提案する。
そこで本研究では,バックドアトリガと組込み分布の両方に基づく共同著作権検証戦略を提案する。
論文 参考訳(メタデータ) (2023-11-10T04:27:27Z) - Who Wrote this Code? Watermarking for Code Generation [53.24895162874416]
本稿では,機械生成テキストを検出するために,Entropy Thresholding (SWEET) を用いたSelective WatErmarkingを提案する。
実験の結果,SWEETはコード品質を著しく向上し,すべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-24T11:49:52Z) - Are You Copying My Model? Protecting the Copyright of Large Language
Models for EaaS via Backdoor Watermark [58.60940048748815]
企業は大規模な言語モデル(LLM)に基づいたEmbeddding as a Service(E)の提供を開始した。
Eはモデル抽出攻撃に弱いため、LLMの所有者に重大な損失をもたらす可能性がある。
埋め込みにバックドアを埋め込むEmbMarkerという埋め込み透かし手法を提案する。
論文 参考訳(メタデータ) (2023-05-17T08:28:54Z) - Protecting Language Generation Models via Invisible Watermarking [41.532711376512744]
GINSEW(GINSEW)は,テキスト生成モデルが蒸留によって盗難されるのを防ぐ新しい方法である。
GINSEWは,保護されたAPIの生成品質に最小限の影響を伴って,IP侵害の事例を効果的に識別できることを示す。
論文 参考訳(メタデータ) (2023-02-06T23:42:03Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Simple Transparent Adversarial Examples [65.65977217108659]
本研究は,ロバスト性を評価するための簡易な方法として,秘密の埋め込みと透明な敵の例を紹介した。
その結果、ハイリスクなアプリケーションにAPIが使用されるという深刻な脅威が生じる。
論文 参考訳(メタデータ) (2021-05-20T11:54:26Z) - Don't Forget to Sign the Gradients! [60.98885980669777]
GradSignsはディープニューラルネットワーク(DNN)のための新しい透かしフレームワーク
深部ニューラルネットワーク(DNN)のための新しい透かしフレームワークであるGradSignsを紹介します。
論文 参考訳(メタデータ) (2021-03-05T14:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。