論文の概要: Discovering Distribution Shifts using Latent Space Representations
- arxiv url: http://arxiv.org/abs/2202.02339v1
- Date: Fri, 4 Feb 2022 19:00:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 15:40:37.866885
- Title: Discovering Distribution Shifts using Latent Space Representations
- Title(参考訳): 潜在空間表現を用いた分布シフトの発見
- Authors: Leo Betthauser, Urszula Chajewska, Maurice Diesendruck, Rohith Pesala
- Abstract要約: 新しい候補データセットに対するモデルの一般化性を評価するのは簡単ではない。
埋め込み空間幾何を用いて分布シフトを検出するための非パラメトリックフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.014524824655106
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Rapid progress in representation learning has led to a proliferation of
embedding models, and to associated challenges of model selection and practical
application. It is non-trivial to assess a model's generalizability to new,
candidate datasets and failure to generalize may lead to poor performance on
downstream tasks. Distribution shifts are one cause of reduced
generalizability, and are often difficult to detect in practice. In this paper,
we use the embedding space geometry to propose a non-parametric framework for
detecting distribution shifts, and specify two tests. The first test detects
shifts by establishing a robustness boundary, determined by an intelligible
performance criterion, for comparing reference and candidate datasets. The
second test detects shifts by featurizing and classifying multiple subsamples
of two datasets as in-distribution and out-of-distribution. In evaluation, both
tests detect model-impacting distribution shifts, in various shift scenarios,
for both synthetic and real-world datasets.
- Abstract(参考訳): 表現学習の急速な進歩は、埋め込みモデルの普及と、モデル選択と実用的な応用に関する課題につながった。
新たな候補データセットに対するモデルの一般化可能性や一般化の失敗が、下流タスクのパフォーマンスの低下につながる可能性があると評価するのは簡単ではない。
分布シフトは一般化可能性の低下の原因の1つであり、実際に検出することがしばしば困難である。
本稿では,空間幾何学を用いて分布変化を検出するための非パラメトリックフレームワークを提案し,2つのテストを指定する。
最初のテストは、参照データセットと候補データセットを比較するための、理解不能なパフォーマンス基準によって決定される堅牢性境界を確立することでシフトを検出する。
2つ目のテストは、2つのデータセットの複数のサブサンプルを非分布と非分布に分類し、シフトを検出する。
評価において、どちらのテストも合成データと実世界のデータセットの両方において、様々なシフトシナリオでモデルに影響を及ぼす分散シフトを検出する。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Invariant Anomaly Detection under Distribution Shifts: A Causal
Perspective [6.845698872290768]
異常検出(AD、Anomaly Detection)は、異常なサンプルを識別する機械学習タスクである。
分散シフトの制約の下では、トレーニングサンプルとテストサンプルが同じ分布から引き出されるという仮定が崩壊する。
我々は,異常検出モデルのレジリエンスを,異なる種類の分布シフトに高めようとしている。
論文 参考訳(メタデータ) (2023-12-21T23:20:47Z) - Can You Rely on Your Model Evaluation? Improving Model Evaluation with
Synthetic Test Data [75.20035991513564]
本稿では,モデル評価を容易にする深層生成モデリングフレームワークである3Sテストを紹介する。
私たちの実験では、3Sテストが従来のベースラインより優れていることが示されています。
これらの結果は、限られた実テストデータから合成テストデータへのパラダイムシフトが必要かどうかという問題を提起する。
論文 参考訳(メタデータ) (2023-10-25T10:18:44Z) - Dual Adaptive Representation Alignment for Cross-domain Few-shot
Learning [58.837146720228226]
ベース知識から学習することで、限られたサポートサンプルを持つ新規なクエリを認識することを目的としている。
この設定の最近の進歩は、ベース知識と新しいクエリサンプルが同じドメインに分散されていることを前提としている。
本稿では,ターゲットドメインで利用可能なサンプルが極めて少ないドメイン間数ショット学習の問題に対処することを提案する。
論文 参考訳(メタデータ) (2023-06-18T09:52:16Z) - Connective Reconstruction-based Novelty Detection [3.7706789983985303]
ディープラーニングにより、説明できないサンプルを含む実世界のデータを分析できるようになった。
GANベースのアプローチは、分散フィッティングを行う能力のため、この問題に対処するために広く利用されている。
本稿では,GANモデルの制約を補うために複雑化を伴わない,シンプルで効率的な再構成手法を提案する。
論文 参考訳(メタデータ) (2022-10-25T11:09:39Z) - Identifying the Context Shift between Test Benchmarks and Production
Data [1.2259552039796024]
データセットベンチマークにおける機械学習モデルの精度と実運用データの間には、パフォーマンスのギャップがある。
分布変化とモデル予測誤差につながる文脈変化を同定する2つの手法を概説する。
本研究は,機械学習モデルに基づく暗黙の仮定を強調するケーススタディを2つ提示する。
論文 参考訳(メタデータ) (2022-07-03T14:54:54Z) - Context-Aware Drift Detection [0.0]
均質性の2サンプル試験は、既存のドリフト検出手法が構築される基礎となる。
条件分布処理効果の2サンプル試験の基礎の上に構築した,より一般的なドリフト検出フレームワークを開発した。
論文 参考訳(メタデータ) (2022-03-16T14:23:02Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - BREEDS: Benchmarks for Subpopulation Shift [98.90314444545204]
本研究では,人口変動に対するモデルのロバスト性を評価する手法を開発した。
既存のデータセットの基盤となるクラス構造を利用して、トレーニングとテストの分散を構成するデータサブポピュレーションを制御する。
この手法をImageNetデータセットに適用し、様々な粒度のサブポピュレーションシフトベンチマークスイートを作成する。
論文 参考訳(メタデータ) (2020-08-11T17:04:47Z) - Calibrated Adversarial Refinement for Stochastic Semantic Segmentation [5.849736173068868]
本稿では,各予測に関連付けられた確率が,その根拠となる真偽の正しさを反映する,セマンティックマップ上の校正された予測分布を学習するための戦略を提案する。
マルチグレーダのLIDCデータセットと、注入曖昧さのあるCityscapesデータセットに対して、最先端の成果を達成し、アプローチの汎用性と堅牢性を実証する。
本研究は,おもちゃの回帰データセットを用いて実験することにより,校正された予測分布の学習を必要とする他のタスクにコア設計を適用することができることを示す。
論文 参考訳(メタデータ) (2020-06-23T16:39:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。