論文の概要: Towards more accurate and useful data anonymity vulnerability measures
- arxiv url: http://arxiv.org/abs/2403.06595v1
- Date: Mon, 11 Mar 2024 10:40:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-17 13:47:35.092200
- Title: Towards more accurate and useful data anonymity vulnerability measures
- Title(参考訳): より正確で有用なデータ匿名性脆弱性対策に向けて
- Authors: Paul Francis, David Wagner,
- Abstract要約: 本報告では,攻撃論文を多数検討し,いくつかの問題点を指摘し,リスクの過大評価に繋がる。
第一に、いくつかの論文は正しい統計的推測基準(または全く)を確立することができず、誤った測定結果をもたらす。
第二に、いくつかの論文では、現実的な会員ベースレートを使用せず、正確さが報告された場合、誤った精度の計測に繋がる。
- 参考スコア(独自算出の注目度): 1.3159777131162964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The purpose of anonymizing structured data is to protect the privacy of individuals in the data while retaining the statistical properties of the data. There is a large body of work that examines anonymization vulnerabilities. Focusing on strong anonymization mechanisms, this paper examines a number of prominent attack papers and finds several problems, all of which lead to overstating risk. First, some papers fail to establish a correct statistical inference baseline (or any at all), leading to incorrect measures. Notably, the reconstruction attack from the US Census Bureau that led to a redesign of its disclosure method made this mistake. We propose the non-member framework, an improved method for how to compute a more accurate inference baseline, and give examples of its operation. Second, some papers don't use a realistic membership base rate, leading to incorrect precision measures if precision is reported. Third, some papers unnecessarily report measures in such a way that it is difficult or impossible to assess risk. Virtually the entire literature on membership inference attacks, dozens of papers, make one or both of these errors. We propose that membership inference papers report precision/recall values using a representative range of base rates.
- Abstract(参考訳): 構造化データの匿名化の目的は、データの統計特性を維持しながら、データの個人のプライバシーを保護することである。
匿名化の脆弱性を調べる大規模な作業があります。
本稿では, 強力な匿名化機構に着目し, 攻撃論文を多数検討し, いくつかの問題点を見出した。
第一に、いくつかの論文は正しい統計的推測基準(または全く)を確立することができず、誤った測定結果をもたらす。
特に、その開示方法の再設計に繋がったアメリカ合衆国国勢調査局の再建攻撃は、この間違いを犯した。
提案する非メンバフレームワークは,より正確な推論ベースラインの計算方法の改善であり,その操作例を示す。
第二に、いくつかの論文では、現実的な会員ベースレートを使用せず、正確さが報告された場合、誤った精度の計測に繋がる。
第3に、リスク評価が困難または不可能であるように、不必要に対策を報告する論文もある。
事実上、メンバーシップ推論攻撃に関する文献全体、数十の論文が、これらのエラーの1つまたは両方を犯している。
提案手法では, ベースレートの代表的な範囲を用いて, 精度/リコール値を報告する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - SEBA: Strong Evaluation of Biometric Anonymizations [3.18294468240512]
生体匿名化の強力な評価のためのフレームワークSEBAを紹介する。
使用が容易で拡張が容易なソフトウェアフレームワークで、最先端の方法論を組み合わせて実装する。
この議論の一環として、プライバシーとユーティリティのトレードオフをより簡単に評価できる新しい指標を紹介し、議論する。
論文 参考訳(メタデータ) (2024-07-09T08:20:03Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - Proximal Causal Inference With Text Data [5.796482272333648]
本稿では,2つの前処理テキストデータを用いた因果推論手法を提案し,2つのゼロショットモデルを用いて2つのプロキシを推定し,それらのプロキシを近位g-形式に適用する。
ゼロショット予測のためのMIMIC-IIIおよびオープン大言語モデルを用いた実世界の臨床ノートを用いて, 合成および半合成条件下での手法の評価を行った。
論文 参考訳(メタデータ) (2024-01-12T16:51:02Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - One Parameter Defense -- Defending against Data Inference Attacks via
Differential Privacy [26.000487178636927]
機械学習モデルは、メンバシップ推論やモデル反転攻撃のようなデータ推論攻撃に弱い。
既存の防衛方法は、メンバーシップ推論攻撃からのみ保護する。
両攻撃を時間効率で処理する差分プライベートディフェンス法を提案する。
論文 参考訳(メタデータ) (2022-03-13T06:06:24Z) - On Primes, Log-Loss Scores and (No) Privacy [8.679020335206753]
本稿では,この追加情報により,任意のデータポイントのメンバシップを1つのクエリで完全精度で推測できることを示す。
我々のアプローチは、攻撃モデルのトレーニングや、敵とのサイド知識へのアクセスを妨げます。
論文 参考訳(メタデータ) (2020-09-17T23:35:12Z) - Anonymizing Machine Learning Models [0.0]
匿名化されたデータは、EU一般データ保護規則などの規則で定められた義務から除外される。
そこで本研究では,学習モデル内に符号化された知識を用いて,より優れたモデル精度を実現する手法を提案する。
また、当社のアプローチには、差分プライバシーに基づくアプローチとして、メンバーシップアタックを防止できる機能があることも示しています。
論文 参考訳(メタデータ) (2020-07-26T09:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。