論文の概要: Context-Aware Drift Detection
- arxiv url: http://arxiv.org/abs/2203.08644v1
- Date: Wed, 16 Mar 2022 14:23:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 20:13:51.780744
- Title: Context-Aware Drift Detection
- Title(参考訳): 文脈認識ドリフト検出
- Authors: Oliver Cobb and Arnaud Van Looveren
- Abstract要約: 均質性の2サンプル試験は、既存のドリフト検出手法が構築される基礎となる。
条件分布処理効果の2サンプル試験の基礎の上に構築した,より一般的なドリフト検出フレームワークを開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When monitoring machine learning systems, two-sample tests of homogeneity
form the foundation upon which existing approaches to drift detection build.
They are used to test for evidence that the distribution underlying recent
deployment data differs from that underlying the historical reference data.
Often, however, various factors such as time-induced correlation mean that
batches of recent deployment data are not expected to form an i.i.d. sample
from the historical data distribution. Instead we may wish to test for
differences in the distributions conditional on \textit{context} that is
permitted to change. To facilitate this we borrow machinery from the causal
inference domain to develop a more general drift detection framework built upon
a foundation of two-sample tests for conditional distributional treatment
effects. We recommend a particular instantiation of the framework based on
maximum conditional mean discrepancies. We then provide an empirical study
demonstrating its effectiveness for various drift detection problems of
practical interest, such as detecting drift in the distributions underlying
subpopulations of data in a manner that is insensitive to their respective
prevalences. The study additionally demonstrates applicability to
ImageNet-scale vision problems.
- Abstract(参考訳): 機械学習システムを監視する場合、同質性の2サンプルテストは、既存のドリフト検出手法が構築する基盤となる。
それらは、最近のデプロイメントデータを支える分布が、過去の参照データと異なるという証拠をテストするために使用される。
しかし、時間的相関のような様々な要因により、最近の展開データのバッチは、歴史的データ分布からi.d.サンプルを形成することは期待できない。
その代わり、変更が許される \textit{context} の条件付き分布の差異をテストしたいかもしれません。
これを容易にするために、我々は因果推論領域から機械を借り、条件分布処理効果の2サンプル試験の基礎の上に構築されたより一般的なドリフト検出フレームワークを開発する。
最大条件平均不一致に基づくフレームワークの特定のインスタンス化を推奨する。
そこで,本研究では,データサブポピュレーションを基礎とする分布におけるドリフトの検出を,それぞれの頻度に敏感な方法で行うなど,実践的関心のドリフト検出問題に対するその有効性を示す実証的研究を行った。
この研究は、imagenet-scale vision問題への適用性も示している。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Fault Detection and Monitoring using an Information-Driven Strategy: Method, Theory, and Application [5.056456697289351]
本稿では,新しいコンセプトドリフト検出器に基づく情報駆動型故障検出手法を提案する。
本手法は,加法雑音モデルの入出力関係におけるドリフトの同定に適している。
提案したMIに基づく故障検出手法の理論的特性を実証する。
論文 参考訳(メタデータ) (2024-05-06T17:43:39Z) - On the Detection of Anomalous or Out-Of-Distribution Data in Vision Models Using Statistical Techniques [0.6554326244334868]
我々は、実際の入力と破損した入力の差を定量化する手法として、ベンフォードの法則(英語版)を評価する。
多くの設定では、異常なデータポイントのフィルタとして機能し、アウト・オブ・ディストリビューションデータのシグナリングとして機能する。
論文 参考訳(メタデータ) (2024-03-21T18:31:47Z) - DAGnosis: Localized Identification of Data Inconsistencies using
Structures [73.39285449012255]
機械学習モデルを確実に使用するためには、デプロイメント時のデータの不整合の特定と適切な処理が不可欠である。
我々は,有向非巡回グラフ(DAG)を用いて,トレーニングセットの特徴分布と非依存性を構造として符号化する。
我々の手法はDAGnosisと呼ばれ、これらの構造的相互作用を利用して、価値があり洞察に富んだデータ中心の結論をもたらす。
論文 参考訳(メタデータ) (2024-02-26T11:29:16Z) - DIVERSIFY: A General Framework for Time Series Out-of-distribution
Detection and Generalization [58.704753031608625]
時系列は、機械学習研究における最も困難なモダリティの1つである。
時系列上でのOODの検出と一般化は、その非定常性によって悩まされる傾向がある。
時系列の動的分布のOOD検出と一般化のためのフレームワークであるDIVERSIFYを提案する。
論文 参考訳(メタデータ) (2023-08-04T12:27:11Z) - Sequential Predictive Two-Sample and Independence Testing [114.4130718687858]
逐次的非パラメトリック2サンプルテストと独立テストの問題点について検討する。
私たちは賭けによる(非パラメトリックな)テストの原則に基づいています。
論文 参考訳(メタデータ) (2023-04-29T01:30:33Z) - Anomaly Detection under Distribution Shift [24.094884041252044]
異常検出(AD)は、通常のトレーニングサンプルのセットからパターンを学習し、テストデータの異常サンプルを特定することを目的とした、重要な機械学習タスクである。
既存のAD研究の多くは、トレーニングデータとテストデータは同一のデータ分布から引き出されると仮定しているが、テストデータは大きな分散シフトを持つ可能性がある。
トレーニングおよび推論段階のOOD標準試料の分布ギャップを最小化することにより, 多様な分布シフトに対する新しいロバストADアプローチを導入する。
論文 参考訳(メタデータ) (2023-03-24T07:39:08Z) - Data-SUITE: Data-centric identification of in-distribution incongruous
examples [81.21462458089142]
Data-SUITEは、ID(In-distriion)データの不連続領域を特定するためのデータ中心のフレームワークである。
我々は,Data-SUITEの性能保証とカバレッジ保証を実証的に検証する。
論文 参考訳(メタデータ) (2022-02-17T18:58:31Z) - Discovering Distribution Shifts using Latent Space Representations [4.014524824655106]
新しい候補データセットに対するモデルの一般化性を評価するのは簡単ではない。
埋め込み空間幾何を用いて分布シフトを検出するための非パラメトリックフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-04T19:00:16Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - Partial Wasserstein and Maximum Mean Discrepancy distances for bridging
the gap between outlier detection and drift detection [0.0]
監視の重要な側面は、入力が検証されたディストリビューションから逸脱したかどうかを確認することである。
我々は、与えられた入力数を基準分布の自動的に選択された部分と比較することにより、外乱検出とドリフト検出のギャップを埋める。
論文 参考訳(メタデータ) (2021-06-09T18:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。