論文の概要: Beyond Full Poisoning: Effective Availability Attacks with Partial Perturbation
- arxiv url: http://arxiv.org/abs/2407.02437v2
- Date: Mon, 10 Mar 2025 16:27:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:40:54.494903
- Title: Beyond Full Poisoning: Effective Availability Attacks with Partial Perturbation
- Title(参考訳): 完全毒殺を超えて - 部分的摂動による効果的なアベイラビリティーアタック
- Authors: Yu Zhe, Jun Sakuma,
- Abstract要約: 本稿では,新たなアベイラビリティ攻撃手法を提案する。
マッチ攻撃(PMA)
PMAは、データの一部しか摂動できない場合に30%以上のパフォーマンス低下を引き起こすことができる最初のアベイラビリティ攻撃である。
4つのデータセットにわたる実験結果から、PMAが既存の手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 8.225819874406238
- License:
- Abstract: The widespread use of publicly available datasets for training machine learning models raises significant concerns about data misuse. Availability attacks have emerged as a means for data owners to safeguard their data by designing imperceptible perturbations that degrade model performance when incorporated into training datasets. However, existing availability attacks are ineffective when only a portion of the data can be perturbed. To address this challenge, we propose a novel availability attack approach termed Parameter Matching Attack (PMA). PMA is the first availability attack capable of causing more than a 30\% performance drop when only a portion of data can be perturbed. PMA optimizes perturbations so that when the model is trained on a mixture of clean and perturbed data, the resulting model will approach a model designed to perform poorly. Experimental results across four datasets demonstrate that PMA outperforms existing methods, achieving significant model performance degradation when a part of the training data is perturbed. Our code is available in the supplementary materials.
- Abstract(参考訳): 機械学習モデルのトレーニングに公開されているデータセットが広く使用されていることで、データ誤用に関する大きな懸念が持ち上がっている。
データ所有者がトレーニングデータセットに組み込まれた場合、モデルパフォーマンスを低下させる、知覚不能な摂動を設計することで、データを保護する手段としてアベイラビリティアタックが出現した。
しかし、データの一部を摂動できる場合、既存のアベイラビリティーアタックは効果がない。
そこで本研究では,パラメータマッチング攻撃(PMA)と呼ばれる新しいアベイラビリティ攻撃手法を提案する。
PMAは最初のアベイラビリティ攻撃であり、データの一部しか摂動できない場合、30倍以上のパフォーマンス低下を引き起こすことができる。
PMAは摂動を最適化し、モデルがクリーンデータと摂動データの混合で訓練されると、結果のモデルが粗悪に動作するように設計されたモデルにアプローチする。
4つのデータセットにまたがる実験の結果、PMAは既存の手法よりも優れており、トレーニングデータの一部が摂動した場合に顕著なモデル性能劣化を達成している。
私たちのコードは補足資料で利用可能です。
関連論文リスト
- PASER: Post-Training Data Selection for Efficient Pruned Large Language Model Recovery [11.20326903218271]
インストラクションチューニングなどのポストトレーニング技術は、一般的にモデル性能の回復に使用される。
しかし、モデル能力回復とは無関係な命令データの中には、負の効果をもたらすものもある。
PASER は,モデル機能に最も重大な欠陥がある命令を識別する。
論文 参考訳(メタデータ) (2025-02-18T07:11:08Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Releasing Malevolence from Benevolence: The Menace of Benign Data on Machine Unlearning [28.35038726318893]
大量の実データや合成データに基づいてトレーニングされた機械学習モデルは、様々な領域で優れた予測性能を達成する。
プライバシの懸念に対処するため、モデルから特定のデータサンプルを削除するために、機械学習が提案されている。
本研究では,データ配信情報を少量の良質なデータ集合に抽出するために,Unlearning Usability Attackを導入する。
論文 参考訳(メタデータ) (2024-07-06T15:42:28Z) - Privacy-Preserving Debiasing using Data Augmentation and Machine Unlearning [3.049887057143419]
データ拡張は、メンバシップ推論攻撃のようなプライバシ攻撃に機械学習モデルを公開する。
我々は、既知の攻撃に対して証明可能な防御を提供しながら、データのバイアスを低減することができるデータ強化と機械学習の効果的な組み合わせを提案する。
論文 参考訳(メタデータ) (2024-04-19T21:54:20Z) - OMG-ATTACK: Self-Supervised On-Manifold Generation of Transferable
Evasion Attacks [17.584752814352502]
Evasion Attacks (EA) は、入力データを歪ませることで、トレーニングされたニューラルネットワークの堅牢性をテストするために使用される。
本稿では, 自己教師型, 計算的経済的な手法を用いて, 対逆例を生成する手法を提案する。
我々の実験は、この手法が様々なモデル、目に見えないデータカテゴリ、さらには防御されたモデルで有効であることを一貫して実証している。
論文 参考訳(メタデータ) (2023-10-05T17:34:47Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Data Impressions: Mining Deep Models to Extract Samples for Data-free
Applications [26.48630545028405]
データインプレッションはトレーニングデータのプロキシとして機能し、さまざまなタスクを実現するために使用することができる。
いくつかのコンピュータビジョンタスクにおけるデータインプレッションの適用性を示す。
論文 参考訳(メタデータ) (2021-01-15T11:37:29Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。