論文の概要: Label Encoding for Regression Networks
- arxiv url: http://arxiv.org/abs/2212.01927v1
- Date: Sun, 4 Dec 2022 21:23:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 15:56:32.145380
- Title: Label Encoding for Regression Networks
- Title(参考訳): 回帰ネットワークのためのラベル符号化
- Authors: Deval Shah, Zi Yu Xue, Tor M. Aamodt
- Abstract要約: 回帰へのバイナリ分類の適用を一般化するバイナリ符号化ラベル(BEL)を導入する。
BELはいくつかの回帰ベンチマークで最先端の精度を達成する。
- 参考スコア(独自算出の注目度): 9.386028796990399
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are used for a wide range of regression problems.
However, there exists a significant gap in accuracy between specialized
approaches and generic direct regression in which a network is trained by
minimizing the squared or absolute error of output labels. Prior work has shown
that solving a regression problem with a set of binary classifiers can improve
accuracy by utilizing well-studied binary classification algorithms. We
introduce binary-encoded labels (BEL), which generalizes the application of
binary classification to regression by providing a framework for considering
arbitrary multi-bit values when encoding target values. We identify desirable
properties of suitable encoding and decoding functions used for the conversion
between real-valued and binary-encoded labels based on theoretical and
empirical study. These properties highlight a tradeoff between classification
error probability and error-correction capabilities of label encodings. BEL can
be combined with off-the-shelf task-specific feature extractors and trained
end-to-end. We propose a series of sample encoding, decoding, and training loss
functions for BEL and demonstrate they result in lower error than direct
regression and specialized approaches while being suitable for a diverse set of
regression problems, network architectures, and evaluation metrics. BEL
achieves state-of-the-art accuracies for several regression benchmarks. Code is
available at https://github.com/ubc-aamodt-group/BEL_regression.
- Abstract(参考訳): ディープニューラルネットワークは、幅広い回帰問題に使われている。
しかし、特殊なアプローチと、出力ラベルの2乗あるいは絶対誤差を最小化してネットワークを訓練する一般的な直接回帰の間には、精度にかなりのギャップがある。
先行研究により、回帰問題をバイナリ分類器の集合で解くことは、よく研究されたバイナリ分類アルゴリズムを用いて精度を向上させることが示されている。
ターゲット値の符号化時に任意のマルチビット値を考慮するフレームワークを提供することにより,バイナリ分類の回帰への応用を一般化したbinary-encoded labels(bel)を導入する。
実値ラベルとバイナリエンコードラベルの変換に使用される適切な符号化および復号関数の望ましい特性を理論的および経験的研究に基づいて同定する。
これらの特性は、ラベル符号化の分類誤り確率と誤り訂正能力のトレードオフを強調する。
BELは、既製のタスク固有の特徴抽出器と、訓練されたエンドツーエンドとを組み合わせることができる。
本稿では,BELにおける一連のサンプル符号化,復号化,訓練損失関数を提案し,それらの誤差が直接回帰よりも低いことを示すとともに,様々な回帰問題,ネットワークアーキテクチャ,評価指標に適合することを示す。
BELはいくつかの回帰ベンチマークで最先端の精度を達成する。
コードはhttps://github.com/ubc-aamodt-group/bel_regressionで入手できる。
関連論文リスト
- Robust Capped lp-Norm Support Vector Ordinal Regression [85.84718111830752]
正規回帰は、ラベルが固有の順序を示す特殊な教師付き問題である。
卓越した順序回帰モデルとしてのベクトル順序回帰は、多くの順序回帰タスクで広く使われている。
我々は,新たなモデルであるCapped $ell_p$-Norm Support Vector Ordinal Regression (CSVOR)を導入する。
論文 参考訳(メタデータ) (2024-04-25T13:56:05Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - An Ordinal Regression Framework for a Deep Learning Based Severity
Assessment for Chest Radiographs [50.285682227571996]
本稿では,順序回帰問題をモデル,対象関数,分類関数の3つの部分に分割する枠組みを提案する。
符号化の選択が性能に強く影響し,コーエンのカッパの選択重み付けに依存することを示す。
論文 参考訳(メタデータ) (2024-02-08T14:00:45Z) - Regularized Linear Regression for Binary Classification [20.710343135282116]
正規化線形回帰は、トレーニングセットがノイズラベルを持つ二項分類問題に対して有望なアプローチである。
十分な正則化強度に対して、最適重みは反対符号の2つの値の周りに集中していることを示す。
多くの場合、各重みの1ビットに対する「圧縮」が性能の損失を極めて少なくする。
論文 参考訳(メタデータ) (2023-11-03T23:18:21Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Learning Label Encodings for Deep Regression [10.02230163797581]
深い回帰ネットワークは、与えられた入力に対して連続的な値を予測する問題の解決に広く利用されている。
回帰のためのラベル符号化の空間は大きい。
本稿では、ネットワーク全体とそのラベルエンコーディングのエンドツーエンドトレーニングのための正規化ラベル学習(RLEL)を提案する。
論文 参考訳(メタデータ) (2023-03-04T00:11:34Z) - Pseudo-Labeling for Kernel Ridge Regression under Covariate Shift [1.3597551064547502]
対象分布に対する平均2乗誤差が小さい回帰関数を,ラベルなしデータと異なる特徴分布を持つラベル付きデータに基づいて学習する。
ラベル付きデータを2つのサブセットに分割し、カーネルリッジの回帰処理を行い、候補モデルの集合と計算モデルを得る。
モデル選択に擬似ラベルを用いることで性能を著しく損なうことはないことが判明した。
論文 参考訳(メタデータ) (2023-02-20T18:46:12Z) - How Does Pseudo-Labeling Affect the Generalization Error of the
Semi-Supervised Gibbs Algorithm? [73.80001705134147]
擬似ラベル付き半教師付き学習(SSL)におけるGibsアルゴリズムによる予測一般化誤差(ゲンエラー)を正確に評価する。
ゲンエラーは、出力仮説、擬ラベルデータセット、ラベル付きデータセットの間の対称性付きKL情報によって表現される。
論文 参考訳(メタデータ) (2022-10-15T04:11:56Z) - Robust Neural Network Classification via Double Regularization [2.41710192205034]
本稿では、分類モデルの複雑さに対するペナルティと、学習観察の最適な再重み付けを組み合わせた、ニューラルネットワークトレーニング損失の新しい二重正則化を提案する。
我々は, (i) MNIST と (ii) CIFAR-10 のニューラルネット分類のための DRFit について, 両者の相違点について実証した。
論文 参考訳(メタデータ) (2021-12-15T13:19:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。