論文の概要: Data Watermarking for Sequential Recommender Systems
- arxiv url: http://arxiv.org/abs/2411.12989v1
- Date: Wed, 20 Nov 2024 02:34:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:11:28.033135
- Title: Data Watermarking for Sequential Recommender Systems
- Title(参考訳): シークエンシャルリコメンダシステムのためのデータ透かし
- Authors: Sixiao Zhang, Cheng Long, Wei Yuan, Hongxu Chen, Hongzhi Yin,
- Abstract要約: 本稿では,シーケンシャルレコメンデータシステムにおけるデータ透かしの問題について検討する。
データセットの透かしはデータセット全体のオーナシップを保護し、ユーザ透かしは個々のユーザのデータを保護する。
提案手法では,不人気な項目をランダムに選択して透かしシーケンスを生成し,通常のユーザのインタラクションシーケンスに挿入する。
- 参考スコア(独自算出の注目度): 52.207721219147814
- License:
- Abstract: In the era of large foundation models, data has become a crucial component for building high-performance AI systems. As the demand for high-quality and large-scale data continues to rise, data copyright protection is attracting increasing attention. In this work, we explore the problem of data watermarking for sequential recommender systems, where a watermark is embedded into the target dataset and can be detected in models trained on that dataset. We address two specific challenges: dataset watermarking, which protects the ownership of the entire dataset, and user watermarking, which safeguards the data of individual users. We systematically define these problems and present a method named DWRS to address them. Our approach involves randomly selecting unpopular items to create a watermark sequence, which is then inserted into normal users' interaction sequences. Extensive experiments on five representative sequential recommendation models and three benchmark datasets demonstrate the effectiveness of DWRS in protecting data copyright while preserving model utility.
- Abstract(参考訳): 大規模な基盤モデルの時代、データは高性能なAIシステムを構築する上で重要な要素となっている。
高品質で大規模なデータの需要が高まるにつれ、データ著作権保護が注目を集めている。
本研究では,シーケンシャルなレコメンデータシステムにおけるデータ透かしの問題について検討し,そのデータセットに透かしを埋め込んで,そのデータセットでトレーニングされたモデルで検出する。
データセット全体のオーナシップを保護するデータセット透かしと、個々のユーザのデータを保護するユーザ透かしだ。
本稿では,これらの問題を体系的に定義し,DWRSと命名された手法を提案する。
提案手法では,不人気な項目をランダムに選択して透かしシーケンスを生成し,通常のユーザのインタラクションシーケンスに挿入する。
5つの代表的なシーケンシャルレコメンデーションモデルと3つのベンチマークデータセットに関する大規模な実験は、DWRSがモデルユーティリティを保持しながらデータ著作権を保護する効果を実証している。
関連論文リスト
- Data Advisor: Dynamic Data Curation for Safety Alignment of Large Language Models [79.65071553905021]
所望のデータセットの特徴を考慮したデータ生成手法であるデータアドバイザを提案する。
Data Advisorは生成されたデータの状態を監視し、現在のデータセットの弱点を特定し、データ生成の次のイテレーションをアドバイスする。
論文 参考訳(メタデータ) (2024-10-07T17:59:58Z) - Adaptive and Robust Watermark for Generative Tabular Data [8.566821590631907]
生成表データに対するフレキシブルでロバストな透かし機構を提案する。
ウォーターマークされたデータセットがデータ品質と下流のユーティリティに無視できる影響があることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2024-09-23T04:37:30Z) - Watermarking Recommender Systems [52.207721219147814]
本稿では,レコメンダシステムに特化した新しい手法であるAutoregressive Out-of-Distribution Watermarking (AOW)を紹介する。
提案手法では,初期項目の選択とオラクルモデルによるクエリを行い,その後に予測スコアの小さい項目を選択する。
透かしの有効性を評価するため、このモデルでは、切り捨てられた透かしシーケンスが与えられた後続の項目を予測することを課題とする。
論文 参考訳(メタデータ) (2024-07-17T06:51:24Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Multi-Resolution Diffusion for Privacy-Sensitive Recommender Systems [2.812395851874055]
Score-based Diffusion Recommendation Module (SDRM)を導入し、高精度なレコメンデータシステムのトレーニングに必要な実世界のデータセットの複雑なパターンをキャプチャする。
SDRMは、ユーザのプライバシを保護するために既存のデータセットを置き換える合成データを生成することができる。
提案手法は,Recall@kで平均4.30%,NDCG@kで平均4.65%向上した。
論文 参考訳(メタデータ) (2023-11-06T19:52:55Z) - Domain Watermark: Effective and Harmless Dataset Copyright Protection is
Closed at Hand [96.26251471253823]
バックドアベースのデータセットオーナシップ検証(DOV)は現在、オープンソースデータセットの著作権を保護するための唯一の実現可能なアプローチである。
我々は、(保護されたデータセットでトレーニングされた)ウォーターマークされたモデルを、良質なモデルによって誤って分類されるであろう、いくつかの難しい'サンプルを正しく分類する。
論文 参考訳(メタデータ) (2023-10-09T11:23:05Z) - Did You Train on My Dataset? Towards Public Dataset Protection with
Clean-Label Backdoor Watermarking [54.40184736491652]
本稿では,公開データの保護のための一般的な枠組みとして機能するバックドアベースの透かし手法を提案する。
データセットに少数の透かしサンプルを挿入することにより、我々のアプローチは、ディフェンダーが設定した秘密関数を暗黙的に学習することを可能にする。
この隠れた機能は、データセットを違法に使用するサードパーティモデルを追跡するための透かしとして使用できる。
論文 参考訳(メタデータ) (2023-03-20T21:54:30Z) - Removing Backdoor-Based Watermarks in Neural Networks with Limited Data [26.050649487499626]
ディープモデルの取引は、今日では非常に需要が高く、利益を上げている。
ナイーブ・トレーディング・スキームは 一般的に 著作権と信頼性の問題に関連する 潜在的なリスクを伴います
WILDと呼ばれる限られたデータを用いたバックドア型透かし除去フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-02T06:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。