論文の概要: How Worrying Are Privacy Attacks Against Machine Learning?
- arxiv url: http://arxiv.org/abs/2511.10516v1
- Date: Fri, 14 Nov 2025 01:55:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.90541
- Title: How Worrying Are Privacy Attacks Against Machine Learning?
- Title(参考訳): マシンラーニングに対するプライバシ攻撃は、どの程度の不安か?
- Authors: Josep Domingo-Ferrer,
- Abstract要約: トレーニングされたモデルを考えると、トレーニングデータに推論を行うためにプライバシ攻撃をマウントする必要がある。
我々の議論は、これらの攻撃のほとんどは、関連する文献のプリマが示唆するよりも現実世界では効果が低いことを示している。
- 参考スコア(独自算出の注目度): 3.871154113576347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In several jurisdictions, the regulatory framework on the release and sharing of personal data is being extended to machine learning (ML). The implicit assumption is that disclosing a trained ML model entails a privacy risk for any personal data used in training comparable to directly releasing those data. However, given a trained model, it is necessary to mount a privacy attack to make inferences on the training data. In this concept paper, we examine the main families of privacy attacks against predictive and generative ML, including membership inference attacks (MIAs), property inference attacks, and reconstruction attacks. Our discussion shows that most of these attacks seem less effective in the real world than what a prima face interpretation of the related literature could suggest.
- Abstract(参考訳): いくつかの管轄区域では、個人情報のリリースと共有に関する規制の枠組みが機械学習(ML)にまで拡張されている。
暗黙の前提は、トレーニングされたMLモデルを開示することは、トレーニングで使用される個人データに対して、それらのデータを直接公開するのに匹敵するプライバシーリスクを伴う、というものである。
しかし、トレーニングされたモデルを考えると、トレーニングデータに推論を行うためにプライバシ攻撃をマウントする必要がある。
本稿では,予測的かつ生成的MLに対するプライバシ攻撃のメインファミリーであるMIA,プロパティ推論攻撃,再構築攻撃について検討する。
我々の議論は、これらの攻撃のほとんどは、関連する文献を解釈する霊長類が示唆するよりも実世界では効果が低いように見えることを示している。
関連論文リスト
- Efficient Unlearning with Privacy Guarantees [3.5502600490147196]
プライバシー保証付き非学習(EUPG)について紹介する。
EUPGは、データが学習されていない個人に対して、正式なプライバシー保証を提供する。
提案手法は,非学習手法に匹敵する有効性と有効性を実証する。
論文 参考訳(メタデータ) (2025-07-07T08:46:02Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Students Parrot Their Teachers: Membership Inference on Model
Distillation [54.392069096234074]
知識蒸留によるプライバシを,教師と学生のトレーニングセットの両方で研究する。
私たちの攻撃は、生徒セットと教師セットが類似している場合、または攻撃者が教師セットを毒できる場合、最強です。
論文 参考訳(メタデータ) (2023-03-06T19:16:23Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - Investigating Membership Inference Attacks under Data Dependencies [26.70764798408236]
プライバシーに敏感なデータに基づく機械学習モデルのトレーニングが、プライバシーに深刻な影響を及ぼす可能性のある新たな攻撃の扉を開いた。
そのような攻撃の1つは、メンバーシップ推論攻撃 (MIA) であり、特定のデータポイントがモデルをトレーニングするために使用されたかどうかを公開する。
我々は、訓練セットのすべてのメンバーと非メンバーが独立して同一に分散しているという制限的な仮定の下で、防衛を評価した。
論文 参考訳(メタデータ) (2020-10-23T00:16:46Z) - When Machine Unlearning Jeopardizes Privacy [25.167214892258567]
機械学習による意図しない情報漏洩について検討する。
高い性能を実現する新しいメンバーシップ推論攻撃を提案する。
我々の結果は、機械学習の実践的な実装におけるプライバシー保護の改善に役立つ。
論文 参考訳(メタデータ) (2020-05-05T14:11:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。