論文の概要: Towards Better Attribute Inference Vulnerability Measures
- arxiv url: http://arxiv.org/abs/2507.01710v1
- Date: Wed, 02 Jul 2025 13:41:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.263136
- Title: Towards Better Attribute Inference Vulnerability Measures
- Title(参考訳): より良い属性推論脆弱性対策に向けて
- Authors: Paul Francis, David Wagner,
- Abstract要約: 本稿では,精度とリコールを両立させた属性推定尺度の設計と実装について述べる。
中等度匿名化されたマイクロデータに対するジェネリック・ベスト・ローマッチ・アタックを用いた実験では,攻撃が危険であることを正しくラベル付けした。
- 参考スコア(独自算出の注目度): 1.3159777131162964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The purpose of anonymizing structured data is to protect the privacy of individuals in the data while retaining the statistical properties of the data. An important class of attack on anonymized data is attribute inference, where an attacker infers the value of an unknown attribute of a target individual given knowledge of one or more known attributes. A major limitation of recent attribute inference measures is that they do not take recall into account, only precision. It is often the case that attacks target only a fraction of individuals, for instance data outliers. Incorporating recall, however, substantially complicates the measure, because one must determine how to combine recall and precision in a composite measure for both the attack and baseline. This paper presents the design and implementation of an attribute inference measure that incorporates both precision and recall. Our design also improves on how the baseline attribute inference is computed. In experiments using a generic best row match attack on moderately-anonymized microdata, we show that in over 25\% of the attacks, our approach correctly labeled the attack to be at risk while the prior approach incorrectly labeled the attack to be safe.
- Abstract(参考訳): 構造化データの匿名化の目的は、データの統計特性を維持しながら、データの個人のプライバシーを保護することである。
匿名化されたデータに対する重要な攻撃のクラスは属性推論であり、攻撃者は1つ以上の既知の属性の知識を与えられた対象個人の未知の属性の値を推論する。
最近の属性推測尺度の最大の制限は、それらが正確さのみを考慮してリコールを行わないことである。
攻撃の対象はごく少数の個人(例えばデータ流出率など)に限られることが多い。
しかし、リコールを組み込むことは、攻撃とベースラインの両方の複合測度において、リコールと精度をどのように組み合わせるかを決定する必要があるため、この測度をかなり複雑にする。
本稿では,精度とリコールを両立させた属性推定尺度の設計と実装について述べる。
私たちの設計では、ベースライン属性の推論の計算方法も改善しています。
中程度匿名化されたマイクロデータに対する汎用的ベスト・ローマッチ・アタックを用いた実験では、攻撃の25%以上において、攻撃が危険であると正しくラベル付けされ、以前のアプローチでは攻撃が安全であると誤ってラベル付けされていた。
関連論文リスト
- Disparate Privacy Vulnerability: Targeted Attribute Inference Attacks and Defenses [1.740992908651449]
潜在的な脅威は、トレーニングデータ内のエンティティのパブリックな非センシティブな属性を使用して、トレーニングされたモデルの逆クエリによって発生します。
我々は、データセット内のリスクの高いグループを識別することを目的とした、分散推論攻撃と呼ばれる新しい推論攻撃を開発する。
また、モデル性能を同時に維持し、標的攻撃のリスクを防止できる新規かつ効果的な格差緩和手法を初めて導入する。
論文 参考訳(メタデータ) (2025-04-05T02:58:37Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Purifier: Defending Data Inference Attacks via Transforming Confidence
Scores [27.330482508047428]
そこで本研究では,PURIFIER(PURIFIER)を用いたメンバシップ推論攻撃に対する防御手法を提案する。
PURIFIERはメンバーシップ推論攻撃を高い効率と効率で防御する。
PURIFIERは、敵のモデル反転攻撃や属性推論攻撃の防御にも有効である。
論文 参考訳(メタデータ) (2022-12-01T16:09:50Z) - On the Alignment of Group Fairness with Attribute Privacy [1.6574413179773757]
グループフェアネスとプライバシは、信頼できる機械学習モデルを設計する上での基本的な側面である。
ブラックボックスの設定において、グループフェアネスと属性プライバシという特定のプライバシー概念との整合性を初めて示す。
論文 参考訳(メタデータ) (2022-11-18T13:00:34Z) - Are Attribute Inference Attacks Just Imputation? [12.56413718364189]
属性推論攻撃では、敵は一部の訓練記録について部分的に知識を持ち、それらの記録に基づいて訓練されたモデルにアクセスすることができる。
差分的プライベートトレーニングや脆弱な記録をトレーニングから取り除くなど、提案された防御策が、このプライバシーリスクを軽減するものではないことを示す。
論文 参考訳(メタデータ) (2022-09-02T23:13:36Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - Black-box Model Inversion Attribute Inference Attacks on Classification
Models [32.757792981935815]
我々は、トレーニングデータのインスタンスに関する非感受性属性を敵が知るような、ある種類のモデル反転攻撃に焦点を当てる。
信頼モデルに基づく攻撃と信頼スコアに基づく攻撃の2つの新しいモデル反転属性推論攻撃を考案した。
2つの実際のデータセットでトレーニングされた決定木とディープニューラルネットワークの2種類の機械学習モデルに対する攻撃を評価した。
論文 参考訳(メタデータ) (2020-12-07T01:14:19Z) - Label-Only Membership Inference Attacks [67.46072950620247]
ラベルのみのメンバシップ推論攻撃を導入する。
我々の攻撃は、摂動下でのモデルが予測するラベルの堅牢性を評価する。
差分プライバシーと(強い)L2正規化を備えたトレーニングモデルは、唯一知られている防衛戦略である。
論文 参考訳(メタデータ) (2020-07-28T15:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。