論文の概要: On the Robustness of Random Forest Against Untargeted Data Poisoning: An
Ensemble-Based Approach
- arxiv url: http://arxiv.org/abs/2209.14013v2
- Date: Thu, 8 Jun 2023 10:02:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 20:29:32.712614
- Title: On the Robustness of Random Forest Against Untargeted Data Poisoning: An
Ensemble-Based Approach
- Title(参考訳): ランダム林の無目標データ汚染に対するロバスト性について:アンサンブルに基づくアプローチ
- Authors: Marco Anisetti, Claudio A. Ardagna, Alessandro Balestrucci, Nicola
Bena, Ernesto Damiani, Chan Yeob Yeun
- Abstract要約: 機械学習モデルでは、トレーニングセット(中毒)の分画の摂動が、モデルの精度を著しく損なう可能性がある。
本研究の目的は、ランダムな森林を標的のない無作為な毒殺攻撃から保護する、新しいハッシュベースのアンサンブルアプローチを実現することである。
- 参考スコア(独自算出の注目度): 59.92672830088336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is becoming ubiquitous. From finance to medicine, machine
learning models are boosting decision-making processes and even outperforming
humans in some tasks. This huge progress in terms of prediction quality does
not however find a counterpart in the security of such models and corresponding
predictions, where perturbations of fractions of the training set (poisoning)
can seriously undermine the model accuracy. Research on poisoning attacks and
defenses received increasing attention in the last decade, leading to several
promising solutions aiming to increase the robustness of machine learning.
Among them, ensemble-based defenses, where different models are trained on
portions of the training set and their predictions are then aggregated, provide
strong theoretical guarantees at the price of a linear overhead. Surprisingly,
ensemble-based defenses, which do not pose any restrictions on the base model,
have not been applied to increase the robustness of random forest models. The
work in this paper aims to fill in this gap by designing and implementing a
novel hash-based ensemble approach that protects random forest against
untargeted, random poisoning attacks. An extensive experimental evaluation
measures the performance of our approach against a variety of attacks, as well
as its sustainability in terms of resource consumption and performance, and
compares it with a traditional monolithic model based on random forest. A final
discussion presents our main findings and compares our approach with existing
poisoning defenses targeting random forests.
- Abstract(参考訳): 機械学習はユビキタスになりつつある。
金融から医学まで、機械学習モデルは意思決定プロセスを強化し、いくつかのタスクで人間を上回っています。
このような予測品質の面での大きな進歩は、そのようなモデルのセキュリティとそれに対応する予測に匹敵するものは見つからず、トレーニングセット(解雇)の断片の摂動がモデルの精度を著しく損なう可能性がある。
毒殺攻撃と防衛に関する研究は、過去10年間で注目を集め、機械学習の堅牢性を高めるためのいくつかの有望な解決策につながった。
その中でも、トレーニングセットの一部で異なるモデルを訓練し、それらの予測を集約したアンサンブルベースの防御は、線形オーバーヘッドの価格で強力な理論的保証を提供する。
驚くべきことに、アンサンブルベースの防御はベースモデルに制限を課さないが、ランダムな森林モデルの堅牢性を高めるには適用されていない。
本稿では,このギャップを埋めるために,ランダムな森林を標的のないランダムな毒殺攻撃から保護する,新しいハッシュベースのアンサンブルアプローチを設計,実装することを目的とする。
広範な実験評価により,多種多様な攻撃に対するアプローチの性能と,資源消費と性能の観点からの持続可能性を測定し,ランダムフォレストに基づく従来のモノリシックモデルと比較した。
最後に本研究の成果を概説し,無作為林を標的とした既存防毒対策との比較を行った。
関連論文リスト
- MIBench: A Comprehensive Benchmark for Model Inversion Attack and Defense [43.71365087852274]
Model Inversion (MI)攻撃は、ターゲットモデルの出力情報を活用して、プライバシに敏感なトレーニングデータを再構築することを目的としている。
包括的で整合性があり、信頼性の高いベンチマークが欠如していることは、非常に大きな課題である。
この致命的なギャップに対処するため、モデル反転攻撃と防御のための最初の実用的なベンチマーク(textitMIBench)を紹介した。
論文 参考訳(メタデータ) (2024-10-07T16:13:49Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - Scalable Whitebox Attacks on Tree-based Models [2.3186641356561646]
本稿では,木アンサンブルモデルに対する新しいホワイトボックス対逆ロバスト性試験手法を提案する。
サンプリングとログデリバティブのトリックを活用することで、提案手法は以前管理不能だったタスクのテストまでスケールアップできる。
論文 参考訳(メタデータ) (2022-03-31T21:36:20Z) - Self-Ensemble Adversarial Training for Improved Robustness [14.244311026737666]
敵の訓練は、あらゆる種類の防衛方法において、様々な敵の攻撃に対する最強の戦略である。
最近の研究は主に新しい損失関数や正規化器の開発に重点を置いており、重み空間の特異な最適点を見つけようとしている。
我々は,歴史モデルの重みを平均化し,頑健な分類器を生成するための,単純だが強力なemphSelf-Ensemble Adversarial Training (SEAT)法を考案した。
論文 参考訳(メタデータ) (2022-03-18T01:12:18Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Voting based ensemble improves robustness of defensive models [82.70303474487105]
我々は、より堅牢性を高めるためのアンサンブルを作ることができるかどうか研究する。
最先端の先制防衛モデルを複数組み合わせることで,59.8%の堅牢な精度を達成できる。
論文 参考訳(メタデータ) (2020-11-28T00:08:45Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Adversarial Attack and Defense of Structured Prediction Models [58.49290114755019]
本論文では,NLPにおける構造化予測タスクに対する攻撃と防御について検討する。
構造化予測モデルの構造化出力は、入力中の小さな摂動に敏感である。
本稿では,シーケンス・ツー・シーケンス・モデルを用いて,構造化予測モデルへの攻撃を学習する,新規で統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-04T15:54:03Z) - Poisoning Attacks on Algorithmic Fairness [14.213638219685656]
本稿では,アルゴリズムの公正性に対する攻撃を害する最適化フレームワークを提案する。
我々は,データ中の異なるグループ間の分類格差の導入を目的とした,勾配に基づく中毒攻撃を開発した。
我々の発見は、異なるシナリオにおけるアルゴリズムフェアネスをターゲットとした、全く新しい敵攻撃セットの定義への道を開いたと信じている。
論文 参考訳(メタデータ) (2020-04-15T08:07:01Z) - Feature Partitioning for Robust Tree Ensembles and their Certification
in Adversarial Scenarios [8.300942601020266]
モデルが安全な環境でトレーニングされ、テスト時に攻撃にさらされる、回避攻撃に焦点を当てます。
我々は,与えられたデータセットの特徴に基づく分割に基づいて基本モデルをトレーニングすることにより,堅牢なアンサンブルを構築するモデルに依存しない戦略を提案する。
我々のアルゴリズムは、アンサンブルのほとんどのモデルが攻撃者の影響を受けないことを保証する。
論文 参考訳(メタデータ) (2020-04-07T12:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。