論文の概要: Beyond Random Noise: Insights on Anonymization Strategies from a Latent
Bandit Study
- arxiv url: http://arxiv.org/abs/2310.00221v1
- Date: Sat, 30 Sep 2023 01:56:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 05:53:20.722370
- Title: Beyond Random Noise: Insights on Anonymization Strategies from a Latent
Bandit Study
- Title(参考訳): ランダムノイズを超えて:潜在帯域研究からの匿名化戦略の考察
- Authors: Alexander Galozy, Sadi Alawadi, Victor Kebande, S{\l}awomir Nowaczyk
- Abstract要約: 本稿では,レコメンデーションタスクの知識を共有する学習シナリオにおけるプライバシの問題について検討する。
我々は、プライバシーとレコメンデーションパフォーマンスのトレードオフを評価するために、潜伏したバンディット設定を使用します。
- 参考スコア(独自算出の注目度): 44.94720642208655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the issue of privacy in a learning scenario where
users share knowledge for a recommendation task. Our study contributes to the
growing body of research on privacy-preserving machine learning and underscores
the need for tailored privacy techniques that address specific attack patterns
rather than relying on one-size-fits-all solutions. We use the latent bandit
setting to evaluate the trade-off between privacy and recommender performance
by employing various aggregation strategies, such as averaging, nearest
neighbor, and clustering combined with noise injection. More specifically, we
simulate a linkage attack scenario leveraging publicly available auxiliary
information acquired by the adversary. Our results on three open real-world
datasets reveal that adding noise using the Laplace mechanism to an individual
user's data record is a poor choice. It provides the highest regret for any
noise level, relative to de-anonymization probability and the ADS metric.
Instead, one should combine noise with appropriate aggregation strategies. For
example, using averages from clusters of different sizes provides flexibility
not achievable by varying the amount of noise alone. Generally, no single
aggregation strategy can consistently achieve the optimum regret for a given
desired level of privacy.
- Abstract(参考訳): 本稿では,レコメンデーションタスクの知識を共有する学習シナリオにおけるプライバシの問題について検討する。
我々の研究は、プライバシ保護機械学習の研究に寄与し、一大のソリューションに頼るのではなく、特定の攻撃パターンに対処する適切なプライバシ技術の必要性を強調している。
提案手法は,平均化,最寄り,クラスタ化,ノイズインジェクションといった様々な集約戦略を用いて,プライバシとレコメンダのパフォーマンスとのトレードオフを評価するために潜在バンディット設定を用いる。
より具体的には、敵が取得した公開補助情報を利用したリンク攻撃シナリオをシミュレートする。
3つのオープンな実世界のデータセットの結果から、個々のユーザのデータレコードにLaplaceメカニズムを使用してノイズを追加することは、不十分な選択であることがわかった。
これは、匿名化確率とADS測定値と比較して、あらゆるノイズレベルに対して最も残念な結果となる。
その代わり、ノイズと適切な集約戦略を組み合わせるべきです。
例えば、異なるサイズのクラスタからの平均の使用は、ノイズの量だけを変えるだけでは実現できない柔軟性を提供する。
一般的に、1つのアグリゲーション戦略は、望ましいプライバシーレベルに対する最適な後悔を一貫して達成できない。
関連論文リスト
- Privacy-Preserving Dynamic Assortment Selection [4.399892832075127]
本稿では,マルチノミアルロジット(MNL)バンドレートモデルを用いて,プライバシ保護のための動的アソシエーション選択のための新しいフレームワークを提案する。
弊社のアプローチでは、ノイズをユーザユーティリティ推定に統合し、探索とエクスプロイトのバランスを保ちつつ、堅牢なプライバシー保護を確保している。
論文 参考訳(メタデータ) (2024-10-29T19:28:01Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Evaluating the Impact of Local Differential Privacy on Utility Loss via
Influence Functions [11.504012974208466]
我々は、特定のプライバシパラメータ値がモデルのテスト損失にどのように影響するかについて、インフルエンス関数が洞察を与える能力を示す。
提案手法により,データキュレーターは,プライバシ・ユーティリティのトレードオフに最も適したプライバシパラメータを選択できる。
論文 参考訳(メタデータ) (2023-09-15T18:08:24Z) - Dynamic Privacy Allocation for Locally Differentially Private Federated
Learning with Composite Objectives [10.528569272279999]
本稿では,強い凸性を持つが非滑らかな問題に対する差分プライベートなフェデレーション学習アルゴリズムを提案する。
提案アルゴリズムは、共有情報に人工ノイズを加えてプライバシーを確保するとともに、時間変化のノイズ分散を動的に割り当て、最適化誤差の上限を最小化する。
解析結果から,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-02T13:30:33Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Enabling Trade-offs in Privacy and Utility in Genomic Data Beacons and
Summary Statistics [26.99521354120141]
要約データやBeaconの応答とプライバシを明示的にトレードオフするための最適化ベースのアプローチを導入します。
第一に、攻撃者はメンバーシップ推論のクレームを行うために確率比テストを適用する。
第2に、攻撃者は、個人間のスコアの分離に対するデータリリースの影響を考慮に入れたしきい値を使用する。
論文 参考訳(メタデータ) (2023-01-11T19:16:13Z) - Learning with Group Noise [106.56780716961732]
グループノイズを用いた学習のための新しいマックスマッチング手法を提案する。
いくつかの学習パラダイムの領域における実世界のデータセットのレンジのパフォーマンスは、Max-Matchingの有効性を示している。
論文 参考訳(メタデータ) (2021-03-17T06:57:10Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z) - Privacy-Preserving Public Release of Datasets for Support Vector Machine
Classification [14.095523601311374]
我々は,データ対象者のプライバシーを侵害することなく,ベクトルマシン分類をサポートするデータセットを公開することの問題点を考察する。
データセットは、プライバシ保護のための付加ノイズを使用して、体系的に難読化される。
元のデータセットから抽出された分類器と難読化された分類器が互いに近接していることを保証する条件を確立する。
論文 参考訳(メタデータ) (2019-12-29T03:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。