論文の概要: Property Inference From Poisoning
- arxiv url: http://arxiv.org/abs/2101.11073v1
- Date: Tue, 26 Jan 2021 20:35:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 19:43:12.923124
- Title: Property Inference From Poisoning
- Title(参考訳): 毒物による特性推定
- Authors: Melissa Chase, Esha Ghosh, Saeed Mahloujifar
- Abstract要約: プロパティ推論攻撃は、トレーニングされたモデルにアクセスでき、トレーニングデータのグローバルな統計を抽出しようとする敵を考える。
本研究では,モデルの情報漏洩を増大させることが目的とする中毒攻撃について検討する。
以上より,毒殺攻撃は情報漏洩を著しく促進し,敏感なアプリケーションにおいてより強力な脅威モデルと見なされるべきであることが示唆された。
- 参考スコア(独自算出の注目度): 15.105224455937025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Property inference attacks consider an adversary who has access to the
trained model and tries to extract some global statistics of the training data.
In this work, we study property inference in scenarios where the adversary can
maliciously control part of the training data (poisoning data) with the goal of
increasing the leakage.
Previous work on poisoning attacks focused on trying to decrease the accuracy
of models either on the whole population or on specific sub-populations or
instances. Here, for the first time, we study poisoning attacks where the goal
of the adversary is to increase the information leakage of the model. Our
findings suggest that poisoning attacks can boost the information leakage
significantly and should be considered as a stronger threat model in sensitive
applications where some of the data sources may be malicious.
We describe our \emph{property inference poisoning attack} that allows the
adversary to learn the prevalence in the training data of any property it
chooses. We theoretically prove that our attack can always succeed as long as
the learning algorithm used has good generalization properties.
We then verify the effectiveness of our attack by experimentally evaluating
it on two datasets: a Census dataset and the Enron email dataset. We were able
to achieve above $90\%$ attack accuracy with $9-10\%$ poisoning in all of our
experiments.
- Abstract(参考訳): プロパティ推論攻撃は、トレーニングされたモデルにアクセスでき、トレーニングデータのグローバルな統計を抽出しようとする敵を考える。
本研究では,攻撃者がトレーニングデータの一部を悪意を持って制御できるシナリオにおいて,情報漏えいの増大を目標としてプロパティ推論について検討する。
中毒攻撃に関する以前の研究は、集団全体または特定のサブ人口またはインスタンスのモデルの精度を低下させようとすることに焦点を当てた。
そこで,本研究では,敵の目的がモデルの情報漏洩を増加させることである中毒攻撃を初めて検討する。
以上の結果から,毒殺攻撃は情報漏洩を著しく促進し,一部のデータソースが悪意を持つ可能性のある機密アプリケーションにおいて,より強力な脅威モデルと考えるべきである。
我々は、敵が選択したプロパティのトレーニングデータで有病率を学習できるようにする「emph{property inference poisoning attack」について記述する。
我々は,学習アルゴリズムが優れた一般化特性を持つ限り,攻撃が常に成功することを理論的に証明する。
次に、調査データセットとenronメールデータセットの2つのデータセットで実験的に評価することで、攻撃の有効性を検証する。
我々はすべての実験で$ 9-10\%$中毒で$ 90\%$以上の攻撃精度を達成できました。
関連論文リスト
- Have You Poisoned My Data? Defending Neural Networks against Data Poisoning [0.393259574660092]
本稿では,トランスファー学習環境における有毒なデータポイントの検出とフィルタリングを行う新しい手法を提案する。
有効毒は, 特徴ベクトル空間の清浄点とよく区別できることを示す。
提案手法は, 防衛率と最終訓練モデルの性能において, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-20T11:50:16Z) - HINT: Healthy Influential-Noise based Training to Defend against Data
Poisoning Attacks [12.929357709840975]
本研究では,影響関数に基づくデータ中毒攻撃を効果的かつ堅牢に防ぐためのトレーニング手法を提案する。
影響関数を用いて、有害な攻撃に対する分類モデルを強化するのに役立つ健全なノイズを創出する。
実験の結果,HINTは非標的および標的の毒殺攻撃の効果に対して,ディープラーニングモデルを効果的に保護できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:12:19Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - On the Exploitability of Instruction Tuning [103.8077787502381]
そこで本研究では,モデルの動作を変えるための命令チューニングを,相手がどのように活用できるかを検討する。
自動データ中毒パイプラインである textitAutoPoison を提案する。
結果から、AutoPoisonは、少数のデータだけを中毒することで、敵がモデルの振る舞いを変えることを可能にする。
論文 参考訳(メタデータ) (2023-06-28T17:54:04Z) - Amplifying Membership Exposure via Data Poisoning [18.799570863203858]
本稿では,データ中毒の第3タイプについて検討し,良心的トレーニングサンプルのプライバシー漏洩リスクを高めることを目的とした。
そこで本研究では,対象クラスの加入者への露出を増幅するために,データ中毒攻撃のセットを提案する。
この結果から,提案手法は,テスト時間モデルの性能劣化を最小限に抑えることで,メンバーシップ推定精度を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-11-01T13:52:25Z) - Autoregressive Perturbations for Data Poisoning [54.205200221427994]
ソーシャルメディアからのデータスクレイピングは、不正なデータの使用に関する懸念が高まっている。
データ中毒攻撃は、スクラップ対策として提案されている。
より広範なデータセットにアクセスせずに有毒なデータを生成できる自動回帰(AR)中毒を導入する。
論文 参考訳(メタデータ) (2022-06-08T06:24:51Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - Defening against Adversarial Denial-of-Service Attacks [0.0]
データ中毒は、機械学習とデータ駆動技術に対する最も関連するセキュリティ脅威の1つです。
我々は,dos有毒なインスタンスを検出する新しい手法を提案する。
2つのdos毒殺攻撃と7つのデータセットに対する我々の防御を評価し、毒殺事例を確実に特定できることを確認します。
論文 参考訳(メタデータ) (2021-04-14T09:52:36Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Just How Toxic is Data Poisoning? A Unified Benchmark for Backdoor and
Data Poisoning Attacks [74.88735178536159]
データ中毒は、モデル盗難から敵の攻撃まで、脅威の中で一番の懸念事項だ。
データ中毒やバックドア攻撃は、テスト設定のバリエーションに非常に敏感である。
厳格なテストを適用して、それらを恐れるべき程度を判断します。
論文 参考訳(メタデータ) (2020-06-22T18:34:08Z) - A Separation Result Between Data-oblivious and Data-aware Poisoning
Attacks [40.044030156696145]
殺人攻撃は、機械学習アルゴリズムに対する重要なセキュリティ脅威として浮上している。
強力な毒殺攻撃のいくつかは、トレーニングデータの完全な知識を必要とする。
本研究は,全情報相手が最適攻撃者よりも確実に強いことを示す。
論文 参考訳(メタデータ) (2020-03-26T16:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。