論文の概要: Adversarial Attacks for Drift Detection
- arxiv url: http://arxiv.org/abs/2411.16591v1
- Date: Mon, 25 Nov 2024 17:25:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:23:55.774843
- Title: Adversarial Attacks for Drift Detection
- Title(参考訳): ドリフト検出のための逆アタック
- Authors: Fabian Hinder, Valerie Vaquet, Barbara Hammer,
- Abstract要約: 本研究は、よく用いられるドリフト検出スキームの欠点について研究する。
ドリフト中のデータストリームを検出せずに構築する方法を示す。
特に,一般的な検出手法に対して,可能なすべての逆数を計算する。
- 参考スコア(独自算出の注目度): 6.234802839923542
- License:
- Abstract: Concept drift refers to the change of data distributions over time. While drift poses a challenge for learning models, requiring their continual adaption, it is also relevant in system monitoring to detect malfunctions, system failures, and unexpected behavior. In the latter case, the robust and reliable detection of drifts is imperative. This work studies the shortcomings of commonly used drift detection schemes. We show how to construct data streams that are drifting without being detected. We refer to those as drift adversarials. In particular, we compute all possible adversairals for common detection schemes and underpin our theoretical findings with empirical evaluations.
- Abstract(参考訳): 概念ドリフト(concept drift)とは、時間とともにデータ分布が変化することを指す。
ドリフトはモデル学習の課題であり、連続的な適応を必要とするが、システム監視において誤動作、システム障害、予期せぬ動作を検出することにも関係している。
後者の場合、ドリフトの堅牢で信頼性の高い検出は必須である。
本研究は、よく用いられるドリフト検出スキームの欠点について研究する。
ドリフト中のデータストリームを検出せずに構築する方法を示す。
我々はこれらを漂流敵と呼ぶ。
特に,一般的な検出手法として可能なすべての逆数を計算するとともに,理論的知見を実証的評価で裏付ける。
関連論文リスト
- Unsupervised Concept Drift Detection from Deep Learning Representations in Real-time [5.999777817331315]
コンセプト・ドリフト(英: Concept Drift)は、対象領域の基本的なデータ分布と統計的性質が時間とともに変化する現象である。
我々は、教師なしリアルタイム概念ドリフト検出フレームワークDriftLensを提案する。
深層学習表現の分布距離を利用して非構造化データに作用する。
論文 参考訳(メタデータ) (2024-06-24T23:41:46Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Are Concept Drift Detectors Reliable Alarming Systems? -- A Comparative
Study [6.7961908135481615]
コンセプトドリフト(concept drift)またはコンセプトドリフト(concept drift)は、機械学習モデルのパフォーマンスに影響を与える。
本研究では, ドリフト検出装置の信頼性を評価し, 時間内ドリフトの同定を行う。
本研究の目的は,ドリフト検出器がどの状況で使用されるべきかを,実践者が理解できるようにすることである。
論文 参考訳(メタデータ) (2022-11-23T16:31:15Z) - Ranking-Based Physics-Informed Line Failure Detection in Power Grids [66.0797334582536]
ライン障害のリアルタイムかつ正確な検出は、極端な気象の影響を緩和し、緊急制御を活性化する最初のステップである。
電力収支方程式は、非線形性、極端な事象における発生の不確実性の増加、グリッドオブザーバビリティの欠如は、従来のデータ駆動障害検出手法の効率を損なう。
本稿では,グリッドトポロジ情報を利用した物理インフォームドライン故障検出器(FIELD)を提案する。
論文 参考訳(メタデータ) (2022-08-31T18:19:25Z) - Bayesian Autoencoders for Drift Detection in Industrial Environments [69.93875748095574]
オートエンコーダは、マルチセンサー環境で異常を検出するために使用される教師なしモデルである。
異常は、実際の環境の変化(実際のドリフト)や、故障した感覚デバイス(仮想ドリフト)から生じる。
論文 参考訳(メタデータ) (2021-07-28T10:19:58Z) - Detecting Concept Drift With Neural Network Model Uncertainty [0.0]
不確実ドリフト検出(UDD)は、真のラベルにアクセスすることなくドリフトを検出することができる。
入力データに基づくドリフト検出とは対照的に,現在の入力データが予測モデルの特性に与える影響を考察する。
UDDは2つの合成および10の実世界のデータセットにおいて、回帰処理と分類処理の両方において、他の最先端戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-05T08:56:36Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Adversarial Concept Drift Detection under Poisoning Attacks for Robust
Data Stream Mining [15.49323098362628]
本稿では,敵対的攻撃と毒殺攻撃の存在下でのロバストな概念ドリフト検出のための枠組みを提案する。
本稿では,2種類の逆流の概念と,頑健な訓練可能なドリフト検出器の分類について紹介する。
また,ロバストネスの相対損失 (Relative Loss of Robustness) についても紹介する。
論文 参考訳(メタデータ) (2020-09-20T18:46:31Z) - Why Normalizing Flows Fail to Detect Out-of-Distribution Data [51.552870594221865]
正規化フローは、イン・オブ・ディストリビューションデータとアウト・オブ・ディストリビューションデータの区別に失敗する。
フローは局所的な画素相関と画像からラテンス空間への変換を学習する。
フロー結合層のアーキテクチャを変更することで、ターゲットデータのセマンティック構造を学ぶためのフローに偏りがあることが示される。
論文 参考訳(メタデータ) (2020-06-15T17:00:01Z) - DriftSurf: A Risk-competitive Learning Algorithm under Concept Drift [12.579800289829963]
ストリーミングデータから学ぶとき、概念ドリフト(concept drift)とも呼ばれるデータ分散の変化は、以前に学習したモデルが不正確なものになる可能性がある。
本研究では,ドリフト検出をより広範な安定状態/反応性状態プロセスに組み込むことにより,従来のドリフト検出に基づく手法を拡張する適応学習アルゴリズムを提案する。
このアルゴリズムはベースラーナーにおいて汎用的であり、様々な教師付き学習問題に適用できる。
論文 参考訳(メタデータ) (2020-03-13T23:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。