論文の概要: Posterior Re-calibration for Imbalanced Datasets
- arxiv url: http://arxiv.org/abs/2010.11820v1
- Date: Thu, 22 Oct 2020 15:57:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 07:26:25.947027
- Title: Posterior Re-calibration for Imbalanced Datasets
- Title(参考訳): 不均衡データセットの後方再校正
- Authors: Junjiao Tian, Yen-Cheng Liu, Nathan Glaser, Yen-Chang Hsu, Zsolt Kira
- Abstract要約: トレーニングラベルの分布が極めて不均衡な場合、ニューラルネットワークは性能が良くない。
我々は、KL分割に基づく最適化によって解決できる訓練後の事前バランス手法を導出する。
6つの異なるデータセットと5つの異なるアーキテクチャで得られた結果は、芸術的正確性を示している。
- 参考スコア(独自算出の注目度): 33.379680556475314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Networks can perform poorly when the training label distribution is
heavily imbalanced, as well as when the testing data differs from the training
distribution. In order to deal with shift in the testing label distribution,
which imbalance causes, we motivate the problem from the perspective of an
optimal Bayes classifier and derive a post-training prior rebalancing technique
that can be solved through a KL-divergence based optimization. This method
allows a flexible post-training hyper-parameter to be efficiently tuned on a
validation set and effectively modify the classifier margin to deal with this
imbalance. We further combine this method with existing likelihood shift
methods, re-interpreting them from the same Bayesian perspective, and
demonstrating that our method can deal with both problems in a unified way. The
resulting algorithm can be conveniently used on probabilistic classification
problems agnostic to underlying architectures. Our results on six different
datasets and five different architectures show state of art accuracy, including
on large-scale imbalanced datasets such as iNaturalist for classification and
Synthia for semantic segmentation. Please see
https://github.com/GT-RIPL/UNO-IC.git for implementation.
- Abstract(参考訳): ニューラルネットワークは、トレーニングラベルの分布がかなり不均衡である場合や、テストデータがトレーニング分布と異なる場合など、パフォーマンスが良くない。
不均衡の原因となるテストラベル分布の変化に対処するために、最適なベイズ分類器の観点から問題を動機付け、KL分割に基づく最適化によって解決できる訓練後の事前分散手法を導出する。
フレキシブルなポストトレーニングハイパーパラメータを検証セットで効率的に調整し、この不均衡に対処するために分類器マージンを効果的に修正することができる。
さらに、この手法を既存の可能性シフト法と組み合わせ、同一ベイズ的視点から再解釈し、我々の手法が両問題を統一的に扱えることを示す。
このアルゴリズムは、基礎となるアーキテクチャに依存しない確率論的分類問題に便利に利用できる。
6つの異なるデータセットと5つの異なるアーキテクチャで得られた結果は,iNaturalistのような大規模不均衡なデータセットやセマンティックセグメンテーションのためのSynthiaを含む,芸術的精度の状態を示している。
実装はhttps://github.com/gt-ripl/uno-ic.gitを参照。
関連論文リスト
- Dynamic Label Injection for Imbalanced Industrial Defect Segmentation [42.841736467487785]
入力バッチに一様分布を課す動的ラベル注入(DLI)アルゴリズムを提案する。
提案アルゴリズムは,ポアソンをベースとしたシームレスな画像クローニングとカット・ペースト技術を組み合わせて,現在のバッチ欠陥分布を計算し,欠陥を転送することで再バランスする。
論文 参考訳(メタデータ) (2024-08-19T14:24:46Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Flexible Distribution Alignment: Towards Long-tailed Semi-supervised Learning with Proper Calibration [18.376601653387315]
Longtailed semi-supervised learning (LTSSL)は、半教師付きアプリケーションのための実践的なシナリオである。
この問題は、ラベル付きとラベルなしのクラス分布の相違によってしばしば悪化する。
本稿では,新しい適応ロジット調整型損失フレームワークFlexDAを紹介する。
論文 参考訳(メタデータ) (2023-06-07T17:50:59Z) - Revisiting Long-tailed Image Classification: Survey and Benchmarks with
New Evaluation Metrics [88.39382177059747]
メトリクスのコーパスは、長い尾の分布で学習するアルゴリズムの正確性、堅牢性、およびバウンダリを測定するために設計されている。
ベンチマークに基づいて,CIFAR10およびCIFAR100データセット上での既存手法の性能を再評価する。
論文 参考訳(メタデータ) (2023-02-03T02:40:54Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - BiSTF: Bilateral-Branch Self-Training Framework for Semi-Supervised
Large-scale Fine-Grained Recognition [28.06659482245647]
半教師付きファイングラインド認識は、データ不均衡、高いクラス間類似性、ドメインミスマッチによる課題である。
本稿では,バイラテラルブランチ・セルフトレーニング・フレームワーク (Bilateral-Branch Self-Training Framework, BiSTF) を提案する。
BiSTFはSemi-iNatデータセット上で既存の最先端SSLよりも優れています。
論文 参考訳(メタデータ) (2021-07-14T15:28:54Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Sinkhorn Label Allocation: Semi-Supervised Classification via Annealed
Self-Training [38.81973113564937]
セルフトレーニングは、学習者がラベルのないデータに関する予測をトレーニング中の監督として使用する半教師付き学習の標準的なアプローチです。
本稿では,このラベル割当問題を事例とクラス間の最適輸送問題として再解釈する。
我々は,CIFAR-10,CIFAR-100,SVHNデータセットに対するアルゴリズムの有効性を,最先端の自己学習アルゴリズムであるFixMatchと比較した。
論文 参考訳(メタデータ) (2021-02-17T08:23:15Z) - Domain Adaptive Bootstrap Aggregating [5.444459446244819]
ブートストラップ集約(英: bootstrap aggregating)は、予測アルゴリズムの安定性を改善する一般的な方法である。
本稿では, ドメイン適応型バッグング手法と, 隣り合う新しい反復型サンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-01-12T20:02:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。