論文の概要: Adversarial Concept Drift Detection under Poisoning Attacks for Robust
Data Stream Mining
- arxiv url: http://arxiv.org/abs/2009.09497v1
- Date: Sun, 20 Sep 2020 18:46:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 12:44:12.604346
- Title: Adversarial Concept Drift Detection under Poisoning Attacks for Robust
Data Stream Mining
- Title(参考訳): ロバストなデータストリームマイニングのための中毒攻撃下の逆流ドリフト検出
- Authors: {\L}ukasz Korycki and Bartosz Krawczyk
- Abstract要約: 本稿では,敵対的攻撃と毒殺攻撃の存在下でのロバストな概念ドリフト検出のための枠組みを提案する。
本稿では,2種類の逆流の概念と,頑健な訓練可能なドリフト検出器の分類について紹介する。
また,ロバストネスの相対損失 (Relative Loss of Robustness) についても紹介する。
- 参考スコア(独自算出の注目度): 15.49323098362628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continuous learning from streaming data is among the most challenging topics
in the contemporary machine learning. In this domain, learning algorithms must
not only be able to handle massive volumes of rapidly arriving data, but also
adapt themselves to potential emerging changes. The phenomenon of the evolving
nature of data streams is known as concept drift. While there is a plethora of
methods designed for detecting its occurrence, all of them assume that the
drift is connected with underlying changes in the source of data. However, one
must consider the possibility of a malicious injection of false data that
simulates a concept drift. This adversarial setting assumes a poisoning attack
that may be conducted in order to damage the underlying classification system
by forcing adaptation to false data. Existing drift detectors are not capable
of differentiating between real and adversarial concept drift. In this paper,
we propose a framework for robust concept drift detection in the presence of
adversarial and poisoning attacks. We introduce the taxonomy for two types of
adversarial concept drifts, as well as a robust trainable drift detector. It is
based on the augmented Restricted Boltzmann Machine with improved gradient
computation and energy function. We also introduce Relative Loss of Robustness
- a novel measure for evaluating the performance of concept drift detectors
under poisoning attacks. Extensive computational experiments, conducted on both
fully and sparsely labeled data streams, prove the high robustness and efficacy
of the proposed drift detection framework in adversarial scenarios.
- Abstract(参考訳): ストリーミングデータからの継続的学習は、現代のマシンラーニングで最も難しいトピックのひとつです。
この領域では、学習アルゴリズムは大量の素早くやってくるデータを処理できるだけでなく、潜在的な新しい変化にも適応する必要がある。
データストリームの進化的な性質の現象は、コンセプトドリフトとして知られている。
発生を検出するために設計された手法は数多く存在するが、これらは全て、ドリフトがデータソースの根底にある変化と結びついていると仮定している。
しかし、概念の漂流をシミュレートする悪意のある偽データ注入の可能性を考慮する必要がある。
この敵対的な設定は、誤ったデータへの適応を強制することによって下位の分類システムにダメージを与えるために行われる中毒攻撃を想定している。
既存のドリフト検出器は、現実と反対の概念ドリフトを区別することができない。
本稿では,敵対的および中毒的攻撃の存在下でのロバストな概念ドリフト検出のための枠組みを提案する。
本稿では,2種類の逆流の概念と,頑健な訓練可能なドリフト検出器の分類について紹介する。
改良された勾配計算とエネルギー関数を備えた拡張制限ボルツマンマシンに基づいている。
また,概念ドリフト検出器の性能評価のための新手法であるロバスト性の相対的損失についても紹介する。
完全かつスパースにラベル付けされたデータストリーム上で行った広範囲な計算実験により,提案するドリフト検出フレームワークが敵対的シナリオにおいて高いロバスト性と有効性を証明した。
関連論文リスト
- Adversarial Attacks for Drift Detection [6.234802839923542]
本研究は、よく用いられるドリフト検出スキームの欠点について研究する。
ドリフト中のデータストリームを検出せずに構築する方法を示す。
特に,一般的な検出手法に対して,可能なすべての逆数を計算する。
論文 参考訳(メタデータ) (2024-11-25T17:25:00Z) - Online Drift Detection with Maximum Concept Discrepancy [13.48123472458282]
最大概念差に基づく新しい概念ドリフト検出手法であるMDD-DDを提案する。
本手法は,概念埋め込みのコントラスト学習により,様々な形態のコンセプトドリフトを適応的に同定することができる。
論文 参考訳(メタデータ) (2024-07-07T13:57:50Z) - Methods for Generating Drift in Text Streams [49.3179290313959]
コンセプトドリフトは、実世界のデータセットで頻繁に発生する現象であり、時間とともにデータ分布の変化に対応する。
本稿では,ラベル付きドリフトを用いたデータセット作成を容易にするための4つのテキストドリフト生成手法を提案する。
その結果、ドリフトの直後にすべてのメソッドのパフォーマンスが低下し、インクリメンタルなSVMは、以前のパフォーマンスレベルを実行し、回復するのに最も速いことを示している。
論文 参考訳(メタデータ) (2024-03-18T23:48:33Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Are Concept Drift Detectors Reliable Alarming Systems? -- A Comparative
Study [6.7961908135481615]
コンセプトドリフト(concept drift)またはコンセプトドリフト(concept drift)は、機械学習モデルのパフォーマンスに影響を与える。
本研究では, ドリフト検出装置の信頼性を評価し, 時間内ドリフトの同定を行う。
本研究の目的は,ドリフト検出器がどの状況で使用されるべきかを,実践者が理解できるようにすることである。
論文 参考訳(メタデータ) (2022-11-23T16:31:15Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Detecting Concept Drift With Neural Network Model Uncertainty [0.0]
不確実ドリフト検出(UDD)は、真のラベルにアクセスすることなくドリフトを検出することができる。
入力データに基づくドリフト検出とは対照的に,現在の入力データが予測モデルの特性に与える影響を考察する。
UDDは2つの合成および10の実世界のデータセットにおいて、回帰処理と分類処理の両方において、他の最先端戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-05T08:56:36Z) - Accumulative Poisoning Attacks on Real-time Data [56.96241557830253]
我々は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを示します。
我々の研究は、よく設計されたが簡単な攻撃戦略が、中毒効果を劇的に増幅できることを検証する。
論文 参考訳(メタデータ) (2021-06-18T08:29:53Z) - Bridging Mode Connectivity in Loss Landscapes and Adversarial Robustness [97.67477497115163]
我々は、モード接続を用いて、ディープニューラルネットワークの対角的堅牢性を研究する。
実験では、異なるネットワークアーキテクチャやデータセットに適用される様々な種類の敵攻撃について取り上げる。
以上の結果から,モード接続は,敵の強靭性を評価・改善するための総合的なツールであり,実用的な手段であることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T19:12:50Z) - DriftSurf: A Risk-competitive Learning Algorithm under Concept Drift [12.579800289829963]
ストリーミングデータから学ぶとき、概念ドリフト(concept drift)とも呼ばれるデータ分散の変化は、以前に学習したモデルが不正確なものになる可能性がある。
本研究では,ドリフト検出をより広範な安定状態/反応性状態プロセスに組み込むことにより,従来のドリフト検出に基づく手法を拡張する適応学習アルゴリズムを提案する。
このアルゴリズムはベースラーナーにおいて汎用的であり、様々な教師付き学習問題に適用できる。
論文 参考訳(メタデータ) (2020-03-13T23:25:25Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。