論文の概要: Threshold KNN-Shapley: A Linear-Time and Privacy-Friendly Approach to
Data Valuation
- arxiv url: http://arxiv.org/abs/2308.15709v2
- Date: Sun, 26 Nov 2023 04:32:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 14:59:42.186728
- Title: Threshold KNN-Shapley: A Linear-Time and Privacy-Friendly Approach to
Data Valuation
- Title(参考訳): Threshold KNN-Shapley: データ評価に対する線形時間とプライバシフレンドリなアプローチ
- Authors: Jiachen T. Wang, Yuqing Zhu, Yu-Xiang Wang, Ruoxi Jia, Prateek Mittal
- Abstract要約: データ評価は、機械学習(ML)モデルのトレーニングにおいて、個々のデータソースの有用性を定量化することを目的としている。
しかし、データのバリュエーションは、その重要性にもかかわらず、プライバシー上の問題にしばしば見過ごされがちだ。
本稿では,近年最も実践的なデータ評価手法であるKNN-Shapleyに着目し,これらの課題について考察する。
- 参考スコア(独自算出の注目度): 57.36638157108914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data valuation aims to quantify the usefulness of individual data sources in
training machine learning (ML) models, and is a critical aspect of data-centric
ML research. However, data valuation faces significant yet frequently
overlooked privacy challenges despite its importance. This paper studies these
challenges with a focus on KNN-Shapley, one of the most practical data
valuation methods nowadays. We first emphasize the inherent privacy risks of
KNN-Shapley, and demonstrate the significant technical difficulties in adapting
KNN-Shapley to accommodate differential privacy (DP). To overcome these
challenges, we introduce TKNN-Shapley, a refined variant of KNN-Shapley that is
privacy-friendly, allowing for straightforward modifications to incorporate DP
guarantee (DP-TKNN-Shapley). We show that DP-TKNN-Shapley has several
advantages and offers a superior privacy-utility tradeoff compared to naively
privatized KNN-Shapley in discerning data quality. Moreover, even non-private
TKNN-Shapley achieves comparable performance as KNN-Shapley. Overall, our
findings suggest that TKNN-Shapley is a promising alternative to KNN-Shapley,
particularly for real-world applications involving sensitive data.
- Abstract(参考訳): データ評価は、トレーニング機械学習(ml)モデルにおける個々のデータソースの有用性を定量化することを目的としており、データ中心のml研究の重要な側面である。
しかし、データのバリュエーションは、その重要性にもかかわらずプライバシー上の問題にしばしば見過ごされる。
本稿では,近年最も実践的なデータ評価手法であるKNN-Shapleyに着目し,これらの課題について考察する。
我々はまず、KNN-Shapleyの固有のプライバシーリスクを強調し、KNN-Shapleyを差分プライバシー(DP)に適合させる上で重要な技術的困難を実証する。
これらの課題を克服するために、プライバシーに配慮したKNN-Shapleyの改良版であるTKNN-Shapleyを導入する。
DP-TKNN-Shapleyにはいくつかの利点があり、データ品質の差別化において、民営化されたKNN-Shapleyに比べ、プライバシー利用のトレードオフが優れていることを示す。
さらに、プライベートでないTKNN-Shapleyでさえ、KNN-Shapleyと同等のパフォーマンスを実現している。
全体としては、TKNN-ShapleyはKNN-Shapleyに代わる有望な代替手段であることを示している。
関連論文リスト
- Assessing the Impact of Image Dataset Features on Privacy-Preserving Machine Learning [1.3604778572442302]
本研究では,私的および非私的畳み込みニューラルネットワーク(CNN)モデルの有用性と脆弱性に影響を与える画像データセットの特徴を明らかにする。
不均衡なデータセットはマイノリティクラスでは脆弱性を増大させるが、DPはこの問題を緩和する。
論文 参考訳(メタデータ) (2024-09-02T15:30:27Z) - Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Unraveling Privacy Risks of Individual Fairness in Graph Neural Networks [66.0143583366533]
グラフニューラルネットワーク(GNN)は、その拡張現実の応用により、大きな注目を集めている。
信頼できるGNNを構築するためには、公平性とプライバシという2つの側面が重要な考慮事項として浮上している。
これまでの研究では、GNNの公平性とプライバシの側面を別々に検討し、GNNのパフォーマンスとのトレードオフを明らかにしている。
しかし、この2つの側面の相互作用は未解明のままである。
論文 参考訳(メタデータ) (2023-01-30T14:52:23Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Investigating Trade-offs in Utility, Fairness and Differential Privacy
in Neural Networks [7.6146285961466]
機械学習アルゴリズムは公正でなければならない。
プライバシーと公正性の制約が 効力の犠牲になるかもしれません
本稿では,ニューラルネットワークにおけるプライバシ・ユーティリティ・フェアネスのトレードオフについて検討する。
論文 参考訳(メタデータ) (2021-02-11T12:33:19Z) - Towards Scalable and Privacy-Preserving Deep Neural Network via
Algorithmic-Cryptographic Co-design [28.789702559193675]
スケーラブルでプライバシ保護の深いニューラルネットワーク学習フレームワークであるSPNNを提案する。
暗号の観点から,秘密共有とホモモルフィック暗号化という2種類の暗号技術を用いて提案する。
実世界のデータセット上で行った実験結果はSPNNの優位性を示している。
論文 参考訳(メタデータ) (2020-12-17T02:26:16Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Industrial Scale Privacy Preserving Deep Neural Network [23.690146141150407]
本稿では,産業規模のプライバシ保護型ニューラルネットワーク学習パラダイムを提案する。
実世界の不正検出データセットと金融危機予測データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-03-11T10:15:37Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。