論文の概要: Feature Shift Detection: Localizing Which Features Have Shifted via
Conditional Distribution Tests
- arxiv url: http://arxiv.org/abs/2107.06929v1
- Date: Wed, 14 Jul 2021 18:23:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-16 14:10:41.089517
- Title: Feature Shift Detection: Localizing Which Features Have Shifted via
Conditional Distribution Tests
- Title(参考訳): 特徴シフト検出:条件付分布テストによる特徴シフトの局所化
- Authors: Sean Kulinski, Saurabh Bagchi, David I. Inouye
- Abstract要約: 軍用センサーネットワークでは、ユーザーがセンサーの1つ以上の障害を検知する。
まず、この問題の形式化を複数の条件分布仮説テストとして定義する。
効率性と柔軟性の両面から,密度モデルスコア関数に基づくテスト統計法を提案する。
- 参考スコア(独自算出の注目度): 12.468665026043382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While previous distribution shift detection approaches can identify if a
shift has occurred, these approaches cannot localize which specific features
have caused a distribution shift -- a critical step in diagnosing or fixing any
underlying issue. For example, in military sensor networks, users will want to
detect when one or more of the sensors has been compromised, and critically,
they will want to know which specific sensors might be compromised. Thus, we
first define a formalization of this problem as multiple conditional
distribution hypothesis tests and propose both non-parametric and parametric
statistical tests. For both efficiency and flexibility, we then propose to use
a test statistic based on the density model score function (i.e. gradient with
respect to the input) -- which can easily compute test statistics for all
dimensions in a single forward and backward pass. Any density model could be
used for computing the necessary statistics including deep density models such
as normalizing flows or autoregressive models. We additionally develop methods
for identifying when and where a shift occurs in multivariate time-series data
and show results for multiple scenarios using realistic attack models on both
simulated and real world data.
- Abstract(参考訳): 従来の分散シフト検出アプローチでは、シフトが発生したかどうかを識別できるが、これらのアプローチでは、分散シフトを引き起こした特定の特徴をローカライズすることはできない。
例えば、軍用センサーネットワークでは、ユーザーがセンサーの1つまたは複数の部分が侵害されたことを検知し、重要なことに、どのセンサーが侵害されたかを知る必要がある。
そこで我々はまず,この問題を複数の条件分布仮説テストとして定式化し,非パラメトリックおよびパラメトリック統計テストを提案する。
効率と柔軟性の両立のために,密度モデルスコア関数(すなわち,スコア関数)に基づいたテスト統計法を提案する。
入力に対する勾配) -- 単一の前方および後方のパスで、すべての次元のテスト統計を簡単に計算できる。
任意の密度モデルは、フローの正規化や自己回帰モデルのような深い密度モデルを含む必要な統計の計算に使用できる。
さらに,多変量時系列データにおけるシフトの発生時期と発生場所を識別する手法を開発し,シミュレーションデータと実世界データの両方に対する現実的な攻撃モデルを用いて,複数のシナリオに対して結果を示す。
関連論文リスト
- Unsupervised Anomaly and Change Detection with Multivariate
Gaussianization [8.508880949780893]
データの高次元性を考えると、異常検出は難しい問題である。
本稿では,リモートセンシング画像の異常や変化を検出する教師なし手法を提案する。
異常検出と変化検出の両方を含む実験において,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-04-12T10:52:33Z) - Model-agnostic out-of-distribution detection using combined statistical
tests [15.27980070479021]
本稿では,学習された生成モデルを用いた分布外検出のための簡易な手法を提案する。
古典的パラメトリックテスト(ラオのスコアテスト)と最近導入された定性テストを組み合わせる。
その単純さと汎用性にもかかわらず、これらの手法はモデル固有のアウト・オブ・ディストリビューション検出アルゴリズムと競合することがある。
論文 参考訳(メタデータ) (2022-03-02T13:32:09Z) - Uncertainty Modeling for Out-of-Distribution Generalization [56.957731893992495]
特徴統計を適切に操作することで、ディープラーニングモデルの一般化能力を向上させることができると論じる。
一般的な手法では、特徴統計を学習した特徴から測定された決定論的値とみなすことが多い。
我々は、学習中に合成された特徴統計を用いて、領域シフトの不確かさをモデル化することにより、ネットワークの一般化能力を向上させる。
論文 参考訳(メタデータ) (2022-02-08T16:09:12Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Tracking the risk of a deployed model and detecting harmful distribution
shifts [105.27463615756733]
実際には、デプロイされたモデルのパフォーマンスが大幅に低下しないという、良心的なシフトを無視することは理にかなっている。
我々は,警告を発射する有効な方法は,(a)良性な警告を無視しながら有害なシフトを検知し,(b)誤報率を増大させることなく,モデル性能の連続的なモニタリングを可能にすることを論じる。
論文 参考訳(メタデータ) (2021-10-12T17:21:41Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Nonlinear Distribution Regression for Remote Sensing Applications [6.664736150040092]
多くのリモートセンシングアプリケーションでは、観察から関心のある変数やパラメータを推定したい。
ニューラルネットワーク、ランダムフォレスト、ガウス過程などの標準アルゴリズムは、これら2つに関連して容易に利用可能である。
本稿では, グループ化されたデータの統計を仮定することなく, 従来の問題を解く非線形(カーネルベース)な分散回帰法を提案する。
論文 参考訳(メタデータ) (2020-12-07T22:04:43Z) - Density of States Estimation for Out-of-Distribution Detection [69.90130863160384]
DoSEは状態推定器の密度である。
我々は、他の教師なしOOD検出器に対するDoSEの最先端性能を実証する。
論文 参考訳(メタデータ) (2020-06-16T16:06:25Z) - A Causal Direction Test for Heterogeneous Populations [10.653162005300608]
ほとんどの因果モデルでは、単一の同質な集団を仮定するが、これは多くの応用において成り立たない仮定である。
等質性仮定に違反した場合、そのような仮定に基づいて開発された因果モデルが正しい因果方向を識別できないことを示す。
我々は,$k$-means型クラスタリングアルゴリズムを用いて,一般的な因果方向検定統計量の調整を提案する。
論文 参考訳(メタデータ) (2020-06-08T18:59:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。