論文の概要: Model Rectification via Unknown Unknowns Extraction from Deployment
Samples
- arxiv url: http://arxiv.org/abs/2102.04145v1
- Date: Mon, 8 Feb 2021 11:46:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 16:12:25.983679
- Title: Model Rectification via Unknown Unknowns Extraction from Deployment
Samples
- Title(参考訳): 展開サンプルからの未知未知数抽出によるモデル整流
- Authors: Bruno Abrahao, Zheng Wang, Haider Ahmed, Yuchen Zhu
- Abstract要約: 本稿では, 訓練後のモデル修正を, 教師付き方式で実施することを目的とした, 汎用的なアルゴリズムフレームワークを提案する。
RTSCVは未知の未知(u.u.s)を抽出する
RTSCVは最先端のアプローチよりも一貫して優れていることを示す。
- 参考スコア(独自算出の注目度): 8.0497115494227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model deficiency that results from incomplete training data is a form of
structural blindness that leads to costly errors, oftentimes with high
confidence. During the training of classification tasks, underrepresented
class-conditional distributions that a given hypothesis space can recognize
results in a mismatch between the model and the target space. To mitigate the
consequences of this discrepancy, we propose Random Test Sampling and
Cross-Validation (RTSCV) as a general algorithmic framework that aims to
perform a post-training model rectification at deployment time in a supervised
way. RTSCV extracts unknown unknowns (u.u.s), i.e., examples from the
class-conditional distributions that a classifier is oblivious to, and works in
combination with a diverse family of modern prediction models. RTSCV augments
the training set with a sample of the test set (or deployment data) and uses
this redefined class layout to discover u.u.s via cross-validation, without
relying on active learning or budgeted queries to an oracle. We contribute a
theoretical analysis that establishes performance guarantees based on the
design bases of modern classifiers. Our experimental evaluation demonstrates
RTSCV's effectiveness, using 7 benchmark tabular and computer vision datasets,
by reducing a performance gap as large as 41% from the respective
pre-rectification models. Last we show that RTSCV consistently outperforms
state-of-the-art approaches.
- Abstract(参考訳): 不完全なトレーニングデータから生じるモデル不足は、コストのかかるエラーにつながる構造的盲点の一形態であり、しばしば高い信頼性を持つ。
分類タスクのトレーニング中に、与えられた仮説空間がモデルと対象空間の間のミスマッチの結果を認識することができるクラス条件分布を過小評価する。
そこで,本研究では,展開時のトレーニング後のモデル整合を監督的に行うための汎用アルゴリズムフレームワークとして,Random Test Sampling and Cross-Validation(RTSCV)を提案する。
RTSCVは未知の未知物(u.u.s)、すなわち分類器が不明瞭であるクラス条件分布の例を抽出し、多様な現代予測モデルと組み合わせて機能する。
RTSCVは、テストセット(またはデプロイメントデータ)のサンプルでトレーニングセットを拡張し、この再定義されたクラスレイアウトを使用して、クロスバリデーション(cross-validation)を通じてU.u.sを検出する。
我々は,現代の分類器の設計ベースに基づく性能保証を確立する理論的解析を行う。
実験により,各事前修正モデルから最大41%の性能ギャップを減らし,7つのベンチマーク表とコンピュータビジョンデータセットを用いてRTSCVの有効性を実証した。
最後に、RTSCVは最先端のアプローチよりも一貫して優れていることを示す。
関連論文リスト
- DIVE: Subgraph Disagreement for Graph Out-of-Distribution Generalization [44.291382840373]
本稿では,グラフ機械学習におけるアウト・オブ・ディストリビューションの一般化の課題に対処する。
従来のグラフ学習アルゴリズムは、この仮定が失敗する現実世界のシナリオで失敗する。
この準最適性能に寄与する主な要因は、ニューラルネットワークの本質的な単純さバイアスである。
論文 参考訳(メタデータ) (2024-08-08T12:08:55Z) - Importance of Disjoint Sampling in Conventional and Transformer Models for Hyperspectral Image Classification [2.1223532600703385]
本稿では、ハイパースペクトル画像分類(HSIC)タスク上でSOTAモデルをトレーニングするための革新的な不整合サンプリング手法を提案する。
重なりのないトレーニング,検証,テストデータを分離することにより,提案手法は,トレーニングや検証中に露出していないピクセルをどの程度正確に分類できるかを,より公平に評価することができる。
この厳密な手法は、SOTAモデルの発展と、ハイパースペクトルセンサーを用いた大規模陸地マッピングへの実際の応用に欠かせない。
論文 参考訳(メタデータ) (2024-04-23T11:40:52Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Uncertainty Estimation for Language Reward Models [5.33024001730262]
言語モデルは、テキストコーパスの教師なしトレーニングからさまざまな能力を学ぶことができる。
人間がラベル付きデータを提供するよりも選択肢を選択する方が簡単であり、事前の作業はそのような選好比較から報酬モデルをトレーニングすることで最先端のパフォーマンスを達成した。
能動的学習とリスク-逆強化学習を用いてサンプル効率とロバスト性を向上させる不確実性推定によるこれらの問題に対処することを模索する。
論文 参考訳(メタデータ) (2022-03-14T20:13:21Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Estimating the Prediction Performance of Spatial Models via Spatial
k-Fold Cross Validation [1.7205106391379026]
機械学習では、モデルの性能を評価するときにデータが独立していると仮定することが多い。
空間自己相関(spatial autocorrelation, SAC)は、標準クロスバリデーション(CV)法により、楽観的に偏りのある予測性能推定を生成する。
本研究では,SACによる楽観的バイアスを伴わないモデル予測性能を評価するため,空間k-fold Cross Validation (SKCV) と呼ばれるCV法の改良版を提案する。
論文 参考訳(メタデータ) (2020-05-28T19:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。