論文の概要: No Cost Likelihood Manipulation at Test Time for Making Better Mistakes
in Deep Networks
- arxiv url: http://arxiv.org/abs/2104.00795v1
- Date: Thu, 1 Apr 2021 22:40:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 23:11:12.993327
- Title: No Cost Likelihood Manipulation at Test Time for Making Better Mistakes
in Deep Networks
- Title(参考訳): ディープネットワークでより良いミスを犯すためのテスト時のコストのラバース操作
- Authors: Shyamgopal Karthik, Ameya Prabhu, Puneet K. Dokania, Vineet Gandhi
- Abstract要約: 階層認識分類には条件付きリスク最小化(crm)フレームワークを用いる。
コストマトリクスと信頼できる推定値を考えると、CRMは単に推論時のミスを修正します。
これは最先端を著しく上回り、一貫してトップ$k$予測の平均階層距離を大きく削減する。
- 参考スコア(独自算出の注目度): 17.55334996757232
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There has been increasing interest in building deep hierarchy-aware
classifiers that aim to quantify and reduce the severity of mistakes, and not
just reduce the number of errors. The idea is to exploit the label hierarchy
(e.g., the WordNet ontology) and consider graph distances as a proxy for
mistake severity. Surprisingly, on examining mistake-severity distributions of
the top-1 prediction, we find that current state-of-the-art hierarchy-aware
deep classifiers do not always show practical improvement over the standard
cross-entropy baseline in making better mistakes. The reason for the reduction
in average mistake-severity can be attributed to the increase in low-severity
mistakes, which may also explain the noticeable drop in their accuracy. To this
end, we use the classical Conditional Risk Minimization (CRM) framework for
hierarchy-aware classification. Given a cost matrix and a reliable estimate of
likelihoods (obtained from a trained network), CRM simply amends mistakes at
inference time; it needs no extra hyperparameters and requires adding just a
few lines of code to the standard cross-entropy baseline. It significantly
outperforms the state-of-the-art and consistently obtains large reductions in
the average hierarchical distance of top-$k$ predictions across datasets, with
very little loss in accuracy. CRM, because of its simplicity, can be used with
any off-the-shelf trained model that provides reliable likelihood estimates.
- Abstract(参考訳): 誤りの深刻度を定量化し減らし、単にエラーの数を減らそうとする、階層認識の深い分類器の構築に対する関心が高まっている。
この考え方は、ラベル階層(例えばWordNetオントロジー)を利用し、グラフ距離をミス重大性のプロキシとして考えることである。
意外なことに、トップ1予測の誤り重大度分布を調べると、現在最先端の階層認識深層分類器は、常に標準のクロスエントロピーベースラインよりも実用的な改善がなされていないことが分かる。
平均ミス重大度が減少する理由は、低重大度ミスの増加によるものであり、また、その正確さの顕著な低下も説明できる。
この目的のために,階層認識分類にはcrm(classic conditional risk minimization)フレームワークを用いる。
コストマトリックスと(トレーニングされたネットワークから得られる)可能性の信頼できる見積を前提に、CRMは単に推論時にミスを修正し、余分なハイパーパラメータを必要とせず、標準のクロスエントロピーベースラインにほんの数行のコードを追加する必要がある。
最先端よりも大幅に優れており、データセット全体にわたるトップ$kの予測の平均階層的距離を大幅に削減し、精度は極めて低い。
CRMは単純さのため、信頼性の高い推定値を提供する市販のトレーニングモデルでも使用できる。
関連論文リスト
- Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Test-Time Amendment with a Coarse Classifier for Fine-Grained
Classification [10.719054378755981]
階層的アンサンブル(HiE)と呼ばれるポストホック補正のための新しいアプローチを提案する。
HiEはラベル階層を利用して、粗い粒度予測を用いてテスト時のきめ細かい分類の性能を向上させる。
提案手法は,細粒度クラスにおいてトレーニングデータが減少するにつれて,誤りの重大度が著しく低下する一方で,トップ1の精度において顕著な向上をもたらす。
論文 参考訳(メタデータ) (2023-02-01T10:55:27Z) - Probable Domain Generalization via Quantile Risk Minimization [90.15831047587302]
ドメインの一般化は、目に見えないテスト分布でうまく機能する予測子を求める。
我々はDGのための新しい確率的フレームワークを提案し、高い確率でよく動作する予測器を学習することを目指している。
論文 参考訳(メタデータ) (2022-07-20T14:41:09Z) - Hierarchical Average Precision Training for Pertinent Image Retrieval [0.0]
本稿では,HAP-PIER (Pertinent Image Search) のための階層型APトレーニング手法を提案する。
HAP-PIERは、エラーの重要性とランキングのより良い評価を統合する新しいH-APメトリックに基づいている。
6つのデータセットの実験により、HAPPIERは階層的検索において最先端の手法を大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2022-07-05T07:55:18Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Automation for Interpretable Machine Learning Through a Comparison of
Loss Functions to Regularisers [0.0]
本稿では、機械学習回帰自動化におけるFit to Median Errorの活用について検討する。
学習した入力-出力関係を条件中央値に規則化することで、解釈可能性を向上させる。
Fit to Median Errorのために最適化されたネットワークは、より一貫して基礎的な真実を近似することが示されている。
論文 参考訳(メタデータ) (2021-06-07T08:50:56Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Generalizing Variational Autoencoders with Hierarchical Empirical Bayes [6.273154057349038]
確率的生成モデルのための計算的に安定なフレームワークである階層的経験的ベイズオートエンコーダ(HEBAE)を提案する。
鍵となる貢献は2つであり、まず、符号化分布を階層的に優先することで、再構成損失関数の最小化と過正規化の回避とのトレードオフを適応的にバランスさせることで、利益を得る。
論文 参考訳(メタデータ) (2020-07-20T18:18:39Z) - Unbiased Risk Estimators Can Mislead: A Case Study of Learning with
Complementary Labels [92.98756432746482]
我々は,補完ラベルを用いた学習という,弱教師付き問題を研究する。
勾配推定の品質はリスク最小化においてより重要であることを示す。
本稿では,ゼロバイアスと分散の低減を両立させる新しい補助的相補的損失(SCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-05T04:19:37Z) - Understanding and Mitigating the Tradeoff Between Robustness and
Accuracy [88.51943635427709]
逆行訓練は、堅牢なエラーを改善するために、摂動でトレーニングセットを増強する。
拡張摂動が最適線形予測器からノイズのない観測を行う場合であっても,標準誤差は増大する可能性がある。
論文 参考訳(メタデータ) (2020-02-25T08:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。