論文の概要: Partial Wasserstein and Maximum Mean Discrepancy distances for bridging
the gap between outlier detection and drift detection
- arxiv url: http://arxiv.org/abs/2106.12893v1
- Date: Wed, 9 Jun 2021 18:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-27 09:05:43.365112
- Title: Partial Wasserstein and Maximum Mean Discrepancy distances for bridging
the gap between outlier detection and drift detection
- Title(参考訳): 異常検出とドリフト検出のギャップを橋渡しするための部分ワッサースタインと最大平均偏差距離
- Authors: Thomas Viehmann
- Abstract要約: 監視の重要な側面は、入力が検証されたディストリビューションから逸脱したかどうかを確認することである。
我々は、与えられた入力数を基準分布の自動的に選択された部分と比較することにより、外乱検出とドリフト検出のギャップを埋める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rise of machine learning and deep learning based applications in
practice, monitoring, i.e. verifying that these operate within specification,
has become an important practical problem. An important aspect of this
monitoring is to check whether the inputs (or intermediates) have strayed from
the distribution they were validated for, which can void the performance
assurances obtained during testing.
There are two common approaches for this. The, perhaps, more classical one is
outlier detection or novelty detection, where, for a single input we ask
whether it is an outlier, i.e. exceedingly unlikely to have originated from a
reference distribution. The second, perhaps more recent approach, is to
consider a larger number of inputs and compare its distribution to a reference
distribution (e.g. sampled during testing). This is done under the label drift
detection.
In this work, we bridge the gap between outlier detection and drift detection
through comparing a given number of inputs to an automatically chosen part of
the reference distribution.
- Abstract(参考訳): 機械学習とディープラーニングベースのアプリケーションの実践、すなわち監視の台頭により、
これらが仕様内で動作していることを検証することは 重要な実践的問題になっています
この監視の重要な側面は、入力(または中間体)が検証された分布から逸脱しているかどうかを確認することであり、テスト中に得られた性能保証を無効にすることができる。
これには2つの共通アプローチがある。
おそらくもっと古典的なものは、外れ値検出(outlier detection)または新規値検出(newnty detection)であり、単一の入力に対して、それが外れ値であるかどうかを問う。
参照分布を起源とする可能性は極めて低い。
2番目の、おそらくより最近のアプローチは、より多くの入力を検討し、その分布を参照分布(例えば、)と比較することである。
テスト中のサンプル)。
これはラベルドリフト検出の下で行われる。
本研究では,基準分布の任意の入力数と自動選択された部分を比較することにより,外れ検出とドリフト検出とのギャップを橋渡しする。
関連論文リスト
- Drift Detection: Introducing Gaussian Split Detector [1.9430846345184412]
本稿では,バッチモードで動作する新しいドリフト検出器であるGaussian Split Detector (GSD)を紹介する。
GSDは、データが正規分布に従うときに機能し、決定境界の変化を監視するためにガウス混合モデルを使用するように設計されている。
我々の検出器は、実際のドリフトの検出や、誤報を避けるための鍵となる仮想ドリフトの無視において、技術の現状よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-14T14:15:31Z) - CADM: Confusion Model-based Detection Method for Real-drift in Chunk
Data Stream [3.0885191226198785]
コンセプトドリフト検出は、健康モニタリングや故障診断といった現実の多くの応用において重要であることから、かなりの注目を集めている。
本稿では,概念的混乱に基づく限定アノテーションを用いて,チャンクデータストリーム内のリアルタイムドリフトを検出する手法を提案する。
論文 参考訳(メタデータ) (2023-03-25T08:59:27Z) - Breaking Down Out-of-Distribution Detection: Many Methods Based on OOD
Training Data Estimate a Combination of the Same Core Quantities [104.02531442035483]
本研究の目的は,OOD検出手法の暗黙的なスコアリング機能を識別すると同時に,共通の目的を認識することである。
内分布と外分布の2値差はOOD検出問題のいくつかの異なる定式化と等価であることを示す。
また, 外乱露光で使用される信頼損失は, 理論上最適のスコアリング関数と非自明な方法で異なる暗黙的なスコアリング関数を持つことを示した。
論文 参考訳(メタデータ) (2022-06-20T16:32:49Z) - ReDFeat: Recoupling Detection and Description for Multimodal Feature
Learning [51.07496081296863]
我々は、相互重み付け戦略による多モーダル特徴学習の検出と記述の独立した制約を再定義する。
本研究では,大きな受容場を有し,学習可能な非最大抑制層を備える検出器を提案する。
我々は,特徴マッチングと画像登録タスクにおける特徴量を評価するために,クロス可視,赤外線,近赤外,合成開口レーダ画像ペアを含むベンチマークを構築した。
論文 参考訳(メタデータ) (2022-05-16T04:24:22Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - Context-Aware Drift Detection [0.0]
均質性の2サンプル試験は、既存のドリフト検出手法が構築される基礎となる。
条件分布処理効果の2サンプル試験の基礎の上に構築した,より一般的なドリフト検出フレームワークを開発した。
論文 参考訳(メタデータ) (2022-03-16T14:23:02Z) - Tracking the risk of a deployed model and detecting harmful distribution
shifts [105.27463615756733]
実際には、デプロイされたモデルのパフォーマンスが大幅に低下しないという、良心的なシフトを無視することは理にかなっている。
我々は,警告を発射する有効な方法は,(a)良性な警告を無視しながら有害なシフトを検知し,(b)誤報率を増大させることなく,モデル性能の連続的なモニタリングを可能にすることを論じる。
論文 参考訳(メタデータ) (2021-10-12T17:21:41Z) - Task-Sensitive Concept Drift Detector with Metric Learning [7.706795195017394]
提案手法は, 実測時に真のラベルにアクセスすることなくドリフトを検出することのできる, タスク依存型ドリフト検出フレームワークである。
ドリフトが分類性能に影響を与える実際のドリフトを検出し、仮想ドリフトを適切に無視することができる。
本稿では, 検出精度, 偽陽性率, 検出遅延の標準指標を1つの値に蓄積する新しい指標を用いて, 提案手法の性能評価を行う。
論文 参考訳(メタデータ) (2021-08-16T09:10:52Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Do We Really Need to Learn Representations from In-domain Data for
Outlier Detection? [6.445605125467574]
2段階のフレームワークに基づく手法は、このタスクで最先端のパフォーマンスを達成する。
我々は,各外乱検出タスクに対して,異なる表現を訓練するコストが高いことを避ける可能性を探る。
実験では, 従来の2段階法と比較して, 様々な外乱検出ベンチマークにおいて, 競争力や性能が向上することを示した。
論文 参考訳(メタデータ) (2021-05-19T17:30:28Z) - Unsupervised Anomaly Detection with Adversarial Mirrored AutoEncoders [51.691585766702744]
本稿では,識別器のミラー化ワッサースタイン損失を利用して,よりセマンティックレベルの再構築を行う逆自動エンコーダの変種を提案する。
我々は,再建基準の代替として,異常スコアの代替尺度を提案した。
提案手法は,OOD検出ベンチマークにおける異常検出の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-24T08:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。