論文の概要: Dataset Protection via Watermarked Canaries in Retrieval-Augmented LLMs
- arxiv url: http://arxiv.org/abs/2502.10673v1
- Date: Sat, 15 Feb 2025 04:56:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:13:56.428994
- Title: Dataset Protection via Watermarked Canaries in Retrieval-Augmented LLMs
- Title(参考訳): 検索型LLMにおける透かしカナリアによるデータセット保護
- Authors: Yepeng Liu, Xuandong Zhao, Dawn Song, Yuheng Bu,
- Abstract要約: 本稿では,テキストデータセットの所有権を保護し,RA-LLMによる不正使用を効果的に検出するための新しいアプローチを提案する。
提案手法では,IPデータセットに特別に設計されたカナリア文書を挿入することにより,元のデータを完全に変更することなく保護する。
検出プロセス中、カナリア文書をクエリし、RA-LLMの応答を分析することにより、不正使用を識別する。
- 参考スコア(独自算出の注目度): 67.0310240737424
- License:
- Abstract: Retrieval-Augmented Generation (RAG) has become an effective method for enhancing large language models (LLMs) with up-to-date knowledge. However, it poses a significant risk of IP infringement, as IP datasets may be incorporated into the knowledge database by malicious Retrieval-Augmented LLMs (RA-LLMs) without authorization. To protect the rights of the dataset owner, an effective dataset membership inference algorithm for RA-LLMs is needed. In this work, we introduce a novel approach to safeguard the ownership of text datasets and effectively detect unauthorized use by the RA-LLMs. Our approach preserves the original data completely unchanged while protecting it by inserting specifically designed canary documents into the IP dataset. These canary documents are created with synthetic content and embedded watermarks to ensure uniqueness, stealthiness, and statistical provability. During the detection process, unauthorized usage is identified by querying the canary documents and analyzing the responses of RA-LLMs for statistical evidence of the embedded watermark. Our experimental results demonstrate high query efficiency, detectability, and stealthiness, along with minimal perturbation to the original dataset, all without compromising the performance of the RAG system.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は,大規模言語モデル(LLM)を最新の知識で拡張する有効な手法となっている。
しかし、IPデータセットは、悪意のあるRetrieval-Augmented LLM(RA-LLM)によって、認証なしで知識データベースに組み込まれる可能性があるため、IP侵害の重大なリスクがある。
データセット所有者の権利を保護するために、RA-LLMに対する効果的なデータセットメンバーシップ推論アルゴリズムが必要である。
本研究では,テキストデータセットの所有権を保護し,RA-LLMによる不正使用を効果的に検出するための新しいアプローチを提案する。
提案手法では,IPデータセットに特別に設計されたカナリア文書を挿入することにより,元のデータを完全に変更することなく保護する。
これらのカナリア文書は、独特性、ステルス性、統計的証明性を保証するために、合成内容と埋め込みの透かしで作成されている。
検出過程では、カナリア文書を照会し、RA-LLMの応答を分析して、埋め込み透かしの統計的証拠として、不正使用を識別する。
実験の結果,RAGシステムの性能を損なうことなく,クエリ効率,検出性,ステルス性,元のデータセットへの摂動を最小限に抑えることができた。
関連論文リスト
- RAG-WM: An Efficient Black-Box Watermarking Approach for Retrieval-Augmented Generation of Large Language Models [24.88433543377822]
RAG-WMと呼ばれる新しいブラックボックスの「知識透かし」アプローチを提案し、RAGのIP侵害を検出する。
RAG-WMはマルチLLMインタラクションフレームワークを使用して、透かしエンティティ関係に基づいた透かしテキストを作成し、ターゲットRAGに注入する。
実験結果から,RAG-WMは各種のLLMにおいて,盗難されたRAGを効果的に検出することがわかった。
論文 参考訳(メタデータ) (2025-01-09T14:01:15Z) - Data Watermarking for Sequential Recommender Systems [52.207721219147814]
本稿では,シーケンシャルレコメンデータシステムにおけるデータ透かしの問題について検討する。
データセットの透かしはデータセット全体のオーナシップを保護し、ユーザ透かしは個々のユーザのデータを保護する。
提案手法では,不人気な項目をランダムに選択して透かしシーケンスを生成し,通常のユーザのインタラクションシーケンスに挿入する。
論文 参考訳(メタデータ) (2024-11-20T02:34:21Z) - Detecting Dataset Abuse in Fine-Tuning Stable Diffusion Models for Text-to-Image Synthesis [3.8809673918404246]
認証されていない使用とトレースデータのリークを検出するために設計されたデータセットの透かしフレームワーク。
我々は、不正使用やトレースデータ漏洩を検出するために設計されたデータセット透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-27T16:34:48Z) - Can Watermarking Large Language Models Prevent Copyrighted Text Generation and Hide Training Data? [62.72729485995075]
著作権文書の生成に対する抑止剤としての透かしの有効性について検討する。
我々は、透かしがメンバーシップ推論攻撃(MIA)の成功率に悪影響を及ぼすことを発見した。
透かしにおける最近のMIAの成功率を改善するための適応的手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T16:53:09Z) - TabularMark: Watermarking Tabular Datasets for Machine Learning [20.978995194849297]
仮説テストに基づく透かし方式であるTabularMarkを提案する。
データノイズパーティショニングは、埋め込み中のデータ摂動に利用される。
実世界のデータセットと合成データセットの実験は、検出性、非侵入性、堅牢性においてTabularMarkの優位性を示している。
論文 参考訳(メタデータ) (2024-06-21T02:58:45Z) - DREW : Towards Robust Data Provenance by Leveraging Error-Controlled Watermarking [58.37644304554906]
誤り訂正符号と透かしを用いたデータ検索法(DREW)を提案する。
DREWはランダムに参照データセットをクラスタ化し、各クラスタに独自のエラー制御された透かしキーを注入する。
関連するクラスタを特定した後、最も正確な一致を見つけるために、クラスタ内に埋め込みベクトル類似性検索を行う。
論文 参考訳(メタデータ) (2024-06-05T01:19:44Z) - Is My Data in Your Retrieval Database? Membership Inference Attacks Against Retrieval Augmented Generation [0.9217021281095907]
本稿では,RAGシステムに対して,メンバーシップ推論攻撃(MIA)を行うための効率的かつ使いやすい手法を提案する。
2つのベンチマークデータセットと複数の生成モデルを用いて攻撃の有効性を示す。
本研究は,RAGシステムにおけるセキュリティ対策の実施の重要性を浮き彫りにした。
論文 参考訳(メタデータ) (2024-05-30T19:46:36Z) - RAEDiff: Denoising Diffusion Probabilistic Models Based Reversible
Adversarial Examples Self-Generation and Self-Recovery [1.9806850896246193]
Reversible Adversarial Exsamples (RAE)は、データセットのIP保護の問題を解決するのに役立つ。
DDPM(Denoising Diffusion Probabilistic Models)に基づくRAE生成のためのRAEDiffの導入
論文 参考訳(メタデータ) (2023-10-25T01:49:29Z) - Domain Watermark: Effective and Harmless Dataset Copyright Protection is
Closed at Hand [96.26251471253823]
バックドアベースのデータセットオーナシップ検証(DOV)は現在、オープンソースデータセットの著作権を保護するための唯一の実現可能なアプローチである。
我々は、(保護されたデータセットでトレーニングされた)ウォーターマークされたモデルを、良質なモデルによって誤って分類されるであろう、いくつかの難しい'サンプルを正しく分類する。
論文 参考訳(メタデータ) (2023-10-09T11:23:05Z) - Did You Train on My Dataset? Towards Public Dataset Protection with
Clean-Label Backdoor Watermarking [54.40184736491652]
本稿では,公開データの保護のための一般的な枠組みとして機能するバックドアベースの透かし手法を提案する。
データセットに少数の透かしサンプルを挿入することにより、我々のアプローチは、ディフェンダーが設定した秘密関数を暗黙的に学習することを可能にする。
この隠れた機能は、データセットを違法に使用するサードパーティモデルを追跡するための透かしとして使用できる。
論文 参考訳(メタデータ) (2023-03-20T21:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。