論文の概要: SoK: Let the Privacy Games Begin! A Unified Treatment of Data Inference
Privacy in Machine Learning
- arxiv url: http://arxiv.org/abs/2212.10986v2
- Date: Thu, 20 Apr 2023 19:36:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 17:40:28.413159
- Title: SoK: Let the Privacy Games Begin! A Unified Treatment of Data Inference
Privacy in Machine Learning
- Title(参考訳): SoK: プライバシゲームはやめよう!
機械学習におけるデータ推論プライバシの統一処理
- Authors: Ahmed Salem, Giovanni Cherubin, David Evans, Boris K\"opf, Andrew
Paverd, Anshuman Suri, Shruti Tople, Santiago Zanella-B\'eguelin
- Abstract要約: 本稿では,機械学習におけるプライバシ推論リスクに関する知識体系を体系化するゲームベースのフレームワークを提案する。
我々はこの枠組みを用いて、推論リスクの定義のための統一構造を提供し、定義間の既知の関係を正式に確立し、未知の関係を明らかにする。
- 参考スコア(独自算出の注目度): 19.212591648094033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deploying machine learning models in production may allow adversaries to
infer sensitive information about training data. There is a vast literature
analyzing different types of inference risks, ranging from membership inference
to reconstruction attacks. Inspired by the success of games (i.e.,
probabilistic experiments) to study security properties in cryptography, some
authors describe privacy inference risks in machine learning using a similar
game-based style. However, adversary capabilities and goals are often stated in
subtly different ways from one presentation to the other, which makes it hard
to relate and compose results. In this paper, we present a game-based framework
to systematize the body of knowledge on privacy inference risks in machine
learning. We use this framework to (1) provide a unifying structure for
definitions of inference risks, (2) formally establish known relations among
definitions, and (3) to uncover hitherto unknown relations that would have been
difficult to spot otherwise.
- Abstract(参考訳): 機械学習モデルを本番環境にデプロイすることで、敵はトレーニングデータに関する機密情報を推測することができる。
会員推定から復興攻撃まで、さまざまなタイプの推論リスクを分析した膨大な文献がある。
暗号のセキュリティ特性を研究するゲーム(確率論的実験)の成功にインスパイアされた著者の中には、同様のゲームベースのスタイルを用いて機械学習におけるプライバシ推論リスクを記述する者もいる。
しかしながら、敵対的な能力や目標はしばしば、あるプレゼンテーションから別のプレゼンテーションへと微妙に異なる方法で述べられているため、結果の関連や構成が困難になる。
本稿では,機械学習におけるプライバシ推論リスクに関する知識を体系化するゲームベースのフレームワークを提案する。
この枠組みは,(1)推論リスクの定義のための統一構造,(2)定義間の既知の関係を正式に確立すること,(3)他の方法では見つからなかった未知の関係を明らかにするために用いられる。
関連論文リスト
- Game-Theoretic Machine Unlearning: Mitigating Extra Privacy Leakage [12.737028324709609]
最近の法律では、要求されたデータとその影響を訓練されたモデルから取り除くことが義務付けられている。
本研究では,非学習性能とプライバシ保護の競合関係をシミュレートするゲーム理論マシンアンラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-06T13:47:04Z) - Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - Deep Variational Privacy Funnel: General Modeling with Applications in
Face Recognition [3.351714665243138]
エンド・ツー・エンド・トレーニング・フレームワークを用いたプライバシー保護表現学習手法を開発した。
我々はこのモデルを最先端の顔認識システムに適用する。
論文 参考訳(メタデータ) (2024-01-26T11:32:53Z) - Improved Membership Inference Attacks Against Language Classification Models [0.0]
分類モデルに対するメンバシップ推論攻撃を実行するための新しいフレームワークを提案する。
本手法は,単一攻撃モデルやクラスラベル毎の攻撃モデルよりも精度が高いことを示す。
論文 参考訳(メタデータ) (2023-10-11T06:09:48Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Membership Inference Attacks on Machine Learning: A Survey [6.468846906231666]
メンバシップ推論攻撃は、データサンプルがマシンラーニングモデルのトレーニングに使用されたかどうかを識別することを目的としている。
会員が個人の機密情報を開示できるため、深刻なプライバシーリスクを引き起こす可能性があります。
会員の推論攻撃に関する最初の包括的な調査を紹介します。
論文 参考訳(メタデータ) (2021-03-14T06:10:47Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - FaceLeaks: Inference Attacks against Transfer Learning Models via
Black-box Queries [2.7564955518050693]
教師モデルと直接対話することなく,個人情報を漏らしたり推測したりできるかどうかを検討する。
集約レベル情報から推測する新しい手法を提案する。
本研究は,情報漏洩が現実の状況で広く利用されている伝達学習フレームワークに対する真のプライバシー上の脅威であることを示す。
論文 参考訳(メタデータ) (2020-10-27T03:02:40Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。