論文の概要: Are You Copying My Prompt? Protecting the Copyright of Vision Prompt for VPaaS via Watermark
- arxiv url: http://arxiv.org/abs/2405.15161v1
- Date: Fri, 24 May 2024 02:31:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 18:18:44.252309
- Title: Are You Copying My Prompt? Protecting the Copyright of Vision Prompt for VPaaS via Watermark
- Title(参考訳): 私のプロンプトをコピーしているか?ウォーターマークによるVPaaSのビジョンプロンプトの著作権保護
- Authors: Huali Ren, Anli Yan, Chong-zhi Gao, Hongyang Yan, Zhenxin Zhang, Jin Li,
- Abstract要約: Visual Prompt Learning (VPL) は、事前訓練されたモデルパラメータの更新を避けることで、リソース消費を大幅に削減する従来の微調整方法とは異なる。
Visual Prompts as a Service (V)の開発者が登場した。
これらの開発者は、認可された顧客に巧妙なプロンプトを提供することで利益を得る。
しかし、大きな欠点はプロンプトのコピーと再配布が簡単であり、V開発者の知的財産権を脅かすことである。
- 参考スコア(独自算出の注目度): 4.071771108540602
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual Prompt Learning (VPL) differs from traditional fine-tuning methods in reducing significant resource consumption by avoiding updating pre-trained model parameters. Instead, it focuses on learning an input perturbation, a visual prompt, added to downstream task data for making predictions. Since learning generalizable prompts requires expert design and creation, which is technically demanding and time-consuming in the optimization process, developers of Visual Prompts as a Service (VPaaS) have emerged. These developers profit by providing well-crafted prompts to authorized customers. However, a significant drawback is that prompts can be easily copied and redistributed, threatening the intellectual property of VPaaS developers. Hence, there is an urgent need for technology to protect the rights of VPaaS developers. To this end, we present a method named \textbf{WVPrompt} that employs visual prompt watermarking in a black-box way. WVPrompt consists of two parts: prompt watermarking and prompt verification. Specifically, it utilizes a poison-only backdoor attack method to embed a watermark into the prompt and then employs a hypothesis-testing approach for remote verification of prompt ownership. Extensive experiments have been conducted on three well-known benchmark datasets using three popular pre-trained models: RN50, BIT-M, and Instagram. The experimental results demonstrate that WVPrompt is efficient, harmless, and robust to various adversarial operations.
- Abstract(参考訳): Visual Prompt Learning (VPL) は、事前訓練されたモデルパラメータの更新を避けることで、リソース消費を大幅に削減する従来の微調整方法とは異なる。
代わりに、予測を行うために下流のタスクデータに追加される視覚的なプロンプトである入力摂動の学習に焦点を当てている。
一般化可能なプロンプトを学習するためには、専門的な設計と作成が必要であり、最適化プロセスに技術的に要求され、時間を要するため、Visual Prompts as a Service(VPaaS)の開発者が現れた。
これらの開発者は、認可された顧客に巧妙なプロンプトを提供することで利益を得る。
しかし大きな欠点は、プロンプトのコピーと再配布が簡単であり、VPaaS開発者の知的財産権を脅かすことだ。
したがって、VPaaS開発者の権利を保護する技術が緊急に必要である。
この目的のために、ブラックボックス方式で視覚的プロンプト透かしを利用する「textbf{WVPrompt}」という手法を提案する。
WVPromptは、迅速な透かしと迅速な検証という2つの部分から構成される。
具体的には、毒のみのバックドア攻撃法を使用して、透かしをプロンプトに埋め込む。
RN50、BIT-M、Instagramの3つの人気のあるトレーニング済みモデルを使用して、よく知られた3つのベンチマークデータセットで大規模な実験が行われた。
実験結果から, WVPromptは効率が高く, 無害で, 様々な操作に対して堅牢であることが示された。
関連論文リスト
- Instructing Prompt-to-Prompt Generation for Zero-Shot Learning [116.33775552866476]
伝達可能な知識発見のための指導的視覚的プロンプトを蒸留するためのtextbfPrompt-to-textbfPrompt 生成手法 (textbfP2P) を提案する。
P2Pのコアとなるのは、アクセシブル条件付き視覚特徴と、モーダル共有セマンティック概念に関するテキスト命令からセマンティック関連命令をマイニングすることである。
論文 参考訳(メタデータ) (2024-06-05T07:59:48Z) - AdvPrompter: Fast Adaptive Adversarial Prompting for LLMs [51.217126257318924]
本稿では,AdvPrompterと呼ばれる新たな大規模言語モデルを用いて,人間可読な逆数プロンプトを数秒で生成する手法を提案する。
我々は、ターゲットLLMの勾配にアクセスする必要がない新しいアルゴリズムを用いてAdvPrompterを訓練する。
訓練されたAdvPrompterは、TargetLLMを誘引して有害な応答を与えるように、意味を変えずに入力命令を無効にする接尾辞を生成する。
論文 参考訳(メタデータ) (2024-04-21T22:18:13Z) - Prompt Stealing Attacks Against Large Language Models [5.421974542780941]
大規模言語モデル(LLM)に対する新たな攻撃を提案する。
提案したプロンプト盗難攻撃は、生成された回答に基づいて、これらのよく設計されたプロンプトを盗むことを目的としている。
実験の結果,提案した攻撃の顕著な性能を示した。
論文 参考訳(メタデータ) (2024-02-20T12:25:26Z) - Textual Prompt Guided Image Restoration [18.78902053873706]
近年ではブラインド画像復元が可能なオールインワンモデルが注目されている。
最近の研究は、データ分布から視覚的なプロンプトを学習し、劣化タイプを特定することに焦点を当てている。
本稿では,効果的なテキストプロンプトガイド画像復元モデルを提案する。
論文 参考訳(メタデータ) (2023-12-11T06:56:41Z) - Prompt Backdoors in Visual Prompt Learning [35.90535387625355]
本稿では,VPLに対するシンプルなバックドア攻撃であるBadVisualPromptを提案する。
バックドアトリガーと視覚的プロンプトの相互作用に関連する新しい技術的課題を特定し,対処する。
論文 参考訳(メタデータ) (2023-10-11T16:25:45Z) - High-Fidelity Lake Extraction via Two-Stage Prompt Enhancement: Establishing a Novel Baseline and Benchmark [18.399869837003457]
リモートセンシング画像からの湖の抽出は、様々な湖の形状とデータノイズのために複雑な課題である。
本稿では,湖沼周辺に近似的なデータセット構築手法を提案する。
また,2段階のプロンプト強化フレームワークLEPrompterを提案する。
論文 参考訳(メタデータ) (2023-08-16T15:51:05Z) - Effective Prompt Extraction from Language Models [78.67410369494623]
本稿では,迅速な抽出攻撃の有効性を評価するための枠組みを提案する。
3つの異なるプロンプトと11の基盤となる大規模言語モデルによる実験では、単純なテキストベースの攻撃は、実際に高い確率でプロンプトを明らかにすることができる。
本フレームワークは,抽出したプロンプトがモデル幻覚ではなく実際の秘密プロンプトであるか否かを高精度に判定する。
論文 参考訳(メタデータ) (2023-07-13T16:15:08Z) - PLAR: Prompt Learning for Action Recognition [56.57236976757388]
我々は,行動認識のためのプロンプト学習(PLAR)という新しい一般学習手法を提案する。
提案手法は,モデルが入力ビデオのアクションに関連する記述や指示に焦点を合わせることで,アクションラベルを予測できるように設計されている。
我々は,空中マルチエージェントデータセットOkutamamの3.110-7.2%の精度向上と地上カメラ単一エージェントデータセットSomesome V2の1.0-3.6%の改善を観察した。
論文 参考訳(メタデータ) (2023-05-21T11:51:09Z) - Rethinking Visual Prompt Learning as Masked Visual Token Modeling [106.71983630652323]
マスク付き視覚トークンモデリング(VPTM)として視覚プロンプト学習を提案し、下流の視覚分類を事前訓練されたマスク付き視覚トークン予測に変換する。
VPTMは、生成前訓練された視覚モデルにおける最初の視覚的プロンプト法であり、タスク修正による事前学習と下流視覚分類の整合性を実現する。
論文 参考訳(メタデータ) (2023-03-09T02:43:10Z) - Optimizing Prompts for Text-to-Image Generation [97.61295501273288]
よく設計されたプロンプトは、テキストから画像へのモデルをガイドし、素晴らしい画像を生成する。
しかし、パフォーマンスプロンプトはモデル固有であり、ユーザ入力と不一致であることが多い。
本稿では,モデル優先のプロンプトにオリジナルのユーザ入力を自動的に適応するフレームワークであるpromise adaptを提案する。
論文 参考訳(メタデータ) (2022-12-19T16:50:41Z) - BadPrompt: Backdoor Attacks on Continuous Prompts [16.780478840918995]
本研究は,バックドア攻撃に対する連続的プロンプト学習アルゴリズムの脆弱性に関する最初の研究である。
本稿では,バックドア攻撃に対するタスク適応アルゴリズムであるBadPromptを提案する。
我々は、5つのデータセットと2つの連続的プロンプトモデル上でのBadPromptの性能を評価する。
論文 参考訳(メタデータ) (2022-11-27T04:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。