論文の概要: With Great Dispersion Comes Greater Resilience: Efficient Poisoning
Attacks and Defenses for Linear Regression Models
- arxiv url: http://arxiv.org/abs/2006.11928v5
- Date: Wed, 19 May 2021 07:51:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 12:42:15.082846
- Title: With Great Dispersion Comes Greater Resilience: Efficient Poisoning
Attacks and Defenses for Linear Regression Models
- Title(参考訳): 大分散はよりレジリエンスを増す: 線形回帰モデルに対する効果的な攻撃と防御
- Authors: Jialin Wen, Benjamin Zi Hao Zhao, Minhui Xue, Alina Oprea and Haifeng
Qian
- Abstract要約: 我々は,攻撃者が有害データセットによる回帰学習の結果にどう干渉するかを分析する。
Noptと呼ばれる我々の攻撃は、同じ量の有毒なデータポイントでより大きなエラーを発生させることができる。
新たな防御アルゴリズムであるProdaは,誤りの低減に有効であることを示す。
- 参考スコア(独自算出の注目度): 28.680562906669216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rise of third parties in the machine learning pipeline, the service
provider in "Machine Learning as a Service" (MLaaS), or external data
contributors in online learning, or the retraining of existing models, the need
to ensure the security of the resulting machine learning models has become an
increasingly important topic. The security community has demonstrated that
without transparency of the data and the resulting model, there exist many
potential security risks, with new risks constantly being discovered.
In this paper, we focus on one of these security risks -- poisoning attacks.
Specifically, we analyze how attackers may interfere with the results of
regression learning by poisoning the training datasets. To this end, we analyze
and develop a new poisoning attack algorithm. Our attack, termed Nopt, in
contrast with previous poisoning attack algorithms, can produce larger errors
with the same proportion of poisoning data-points. Furthermore, we also
significantly improve the state-of-the-art defense algorithm, termed TRIM,
proposed by Jagielsk et al. (IEEE S&P 2018), by incorporating the concept of
probability estimation of clean data-points into the algorithm. Our new defense
algorithm, termed Proda, demonstrates an increased effectiveness in reducing
errors arising from the poisoning dataset through optimizing ensemble models.
We highlight that the time complexity of TRIM had not been estimated; however,
we deduce from their work that TRIM can take exponential time complexity in the
worst-case scenario, in excess of Proda's logarithmic time. The performance of
both our proposed attack and defense algorithms is extensively evaluated on
four real-world datasets of housing prices, loans, health care, and bike
sharing services. We hope that our work will inspire future research to develop
more robust learning algorithms immune to poisoning attacks.
- Abstract(参考訳): マシンラーニングパイプラインにおけるサードパーティの台頭、"Machine Learning as a Service"(MLaaS)のサービスプロバイダ、あるいはオンライン学習における外部データコントリビュータ、あるいは既存モデルのトレーニングなどにより、結果として発生する機械学習モデルのセキュリティがますます重要になっている。
セキュリティコミュニティは、データと結果のモデルの透明性がなければ、多くの潜在的なセキュリティリスクが存在し、新たなリスクが常に発見されることを示した。
本稿では,これらのセキュリティリスク - 毒殺攻撃の1つに焦点を当てる。
具体的には,学習データセットを汚染することにより,攻撃者が回帰学習の結果にどう干渉するかを分析する。
そこで本研究では,新たな毒素攻撃アルゴリズムを解析・開発する。
我々の攻撃はNoptと呼ばれ、従来の中毒攻撃アルゴリズムとは対照的に、より大きなエラーを発生させることができる。
さらに、クリーンなデータポイントの確率推定の概念をアルゴリズムに取り入れることで、Jagielskらによって提案された最先端の防衛アルゴリズムであるTRIM(IEEE S&P 2018)を大幅に改善する。
prodaと呼ばれる新しい防御アルゴリズムは,アサンブルモデルを最適化することで,中毒データセットから発生するエラーを減らす効果が高まることを実証する。
TRIMの時間複雑性は推定されていないが、TRIMが最悪のシナリオにおいて、Prodaの対数時間を超える指数時間複雑性を取ることができるという彼らの研究から推測する。
提案する攻撃アルゴリズムと防御アルゴリズムの性能は,住宅価格,ローン,医療,自転車シェアリングの4つの実世界のデータセット上で広範囲に評価されている。
私たちの研究が将来の研究に刺激を与え、より堅牢な学習アルゴリズムを開発することを期待しています。
関連論文リスト
- Data Poisoning and Leakage Analysis in Federated Learning [10.090442512374661]
データ中毒と漏洩のリスクは、現実世界におけるフェデレートされた学習の大規模展開を妨げる。
この章では、データプライバシー侵害のエミュレーションとデータ中毒のエミュレーションという2つの支配的脅威を理解するための真実と落とし穴を明らかにします。
論文 参考訳(メタデータ) (2024-09-19T16:50:29Z) - Have You Poisoned My Data? Defending Neural Networks against Data Poisoning [0.393259574660092]
本稿では,トランスファー学習環境における有毒なデータポイントの検出とフィルタリングを行う新しい手法を提案する。
有効毒は, 特徴ベクトル空間の清浄点とよく区別できることを示す。
提案手法は, 防衛率と最終訓練モデルの性能において, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-20T11:50:16Z) - Privacy-Preserving Distributed Learning for Residential Short-Term Load
Forecasting [11.185176107646956]
電力システムの負荷データは、住宅ユーザの日常のルーチンを不注意に明らかにし、彼らの財産のセキュリティにリスクを及ぼす可能性がある。
我々はマルコフスイッチ方式の分散学習フレームワークを導入し、その収束は厳密な理論的解析によって実証される。
実世界の電力系統負荷データを用いたケーススタディにより,提案アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2024-02-02T16:39:08Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Wild Patterns Reloaded: A Survey of Machine Learning Security against
Training Data Poisoning [32.976199681542845]
我々は、機械学習における中毒攻撃と防御の包括的体系化を提供する。
私たちはまず、現在の脅威モデルと攻撃を分類し、それに従って既存の防衛を組織化します。
我々は、我々の体系化は、他のデータモダリティに対する最先端の攻撃や防御も含んでいると論じている。
論文 参考訳(メタデータ) (2022-05-04T11:00:26Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Data Poisoning Attacks on Regression Learning and Corresponding Defenses [0.0]
逆データ中毒は機械学習に対する効果的な攻撃であり、トレーニングデータセットに有毒データを導入することでモデルの完全性を脅かす。
データ中毒攻撃が生産システムに脅威を与え、新たなブラックボックス攻撃をもたらす現実的なシナリオを提示する。
その結果, 残留剤の平均二乗誤差(MSE)は, わずか2%の毒素を挿入することにより150パーセントに増加することがわかった。
論文 参考訳(メタデータ) (2020-09-15T12:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。