論文の概要: Learning Label Encodings for Deep Regression
- arxiv url: http://arxiv.org/abs/2303.02273v1
- Date: Sat, 4 Mar 2023 00:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 20:31:46.524307
- Title: Learning Label Encodings for Deep Regression
- Title(参考訳): 深い回帰のための学習ラベル符号化
- Authors: Deval Shah and Tor M. Aamodt
- Abstract要約: 深い回帰ネットワークは、与えられた入力に対して連続的な値を予測する問題の解決に広く利用されている。
回帰のためのラベル符号化の空間は大きい。
本稿では、ネットワーク全体とそのラベルエンコーディングのエンドツーエンドトレーニングのための正規化ラベル学習(RLEL)を提案する。
- 参考スコア(独自算出の注目度): 10.02230163797581
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep regression networks are widely used to tackle the problem of predicting
a continuous value for a given input. Task-specialized approaches for training
regression networks have shown significant improvement over generic approaches,
such as direct regression. More recently, a generic approach based on
regression by binary classification using binary-encoded labels has shown
significant improvement over direct regression. The space of label encodings
for regression is large. Lacking heretofore have been automated approaches to
find a good label encoding for a given application. This paper introduces
Regularized Label Encoding Learning (RLEL) for end-to-end training of an entire
network and its label encoding. RLEL provides a generic approach for tackling
regression. Underlying RLEL is our observation that the search space of label
encodings can be constrained and efficiently explored by using a continuous
search space of real-valued label encodings combined with a regularization
function designed to encourage encodings with certain properties. These
properties balance the probability of classification error in individual bits
against error correction capability. Label encodings found by RLEL result in
lower or comparable errors to manually designed label encodings. Applying RLEL
results in 10.9% and 12.4% improvement in Mean Absolute Error (MAE) over direct
regression and multiclass classification, respectively. Our evaluation
demonstrates that RLEL can be combined with off-the-shelf feature extractors
and is suitable across different architectures, datasets, and tasks. Code is
available at https://github.com/ubc-aamodt-group/RLEL_regression.
- Abstract(参考訳): 深い回帰ネットワークは、与えられた入力の連続値を予測する問題に対処するために広く使われている。
回帰ネットワークを訓練するためのタスク特化アプローチは、直接回帰のような一般的なアプローチよりも大幅に改善されている。
最近では、バイナリ符号化ラベルを用いたバイナリ分類による回帰に基づく一般的なアプローチが、直接回帰よりも顕著に改善されている。
回帰のためのラベル符号化の空間は大きい。
これまでは、特定のアプリケーションのための優れたラベルエンコーディングを見つけるための自動化アプローチが欠如していた。
本稿では,ネットワーク全体のエンドツーエンドトレーニングとそのラベル符号化のための正規化ラベル符号化学習(rlel)を提案する。
RLELは回帰に対処するための一般的なアプローチを提供する。
基礎となるrlelは,実数値ラベルエンコーディングの連続探索空間と,特定の特性を持つエンコーディングを促進するように設計された正規化関数を組み合わせることで,ラベルエンコーディングの探索空間を制約し,効率的に探索できるという観測である。
これらの特性は、個々のビットにおける分類エラーの確率とエラー訂正能力とのバランスをとる。
RLELで見つかったラベルエンコーディングは、手動で設計されたラベルエンコーディングよりも低いか同等のエラーをもたらす。
RLELを適用すると、それぞれ直接回帰とマルチクラス分類よりも平均絶対誤差(MAE)が10.9%、12.4%向上する。
評価の結果,RLELは既製の特徴抽出器と組み合わせて,異なるアーキテクチャ,データセット,タスクに適合することがわかった。
コードはhttps://github.com/ubc-aamodt-group/rlel_regressionで入手できる。
関連論文リスト
- LFFR: Logistic Function For (single-output) Regression [0.0]
完全同型暗号方式で暗号化されたデータを用いたプライバシー保護型回帰トレーニングを実装した。
我々は,ロジスティック関数を用いたホモモルフィック回帰のための新しい,効率的なアルゴリズムLFFRを開発した。
論文 参考訳(メタデータ) (2024-07-13T17:33:49Z) - Robust Capped lp-Norm Support Vector Ordinal Regression [85.84718111830752]
正規回帰は、ラベルが固有の順序を示す特殊な教師付き問題である。
卓越した順序回帰モデルとしてのベクトル順序回帰は、多くの順序回帰タスクで広く使われている。
我々は,新たなモデルであるCapped $ell_p$-Norm Support Vector Ordinal Regression (CSVOR)を導入する。
論文 参考訳(メタデータ) (2024-04-25T13:56:05Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - GEC-DePenD: Non-Autoregressive Grammatical Error Correction with
Decoupled Permutation and Decoding [52.14832976759585]
文法的誤り訂正(GEC)は、通常自己回帰的なシーケンス・ツー・シーケンスモデルで解決される重要なNLPタスクである。
本稿では, アーキテクチャを置換ネットワークに分離する, GEC に対する非自己回帰的アプローチを提案する。
GECの既知の非自己回帰手法よりもネットワークが向上することを示す。
論文 参考訳(メタデータ) (2023-11-14T14:24:36Z) - Regularized Linear Regression for Binary Classification [20.710343135282116]
正規化線形回帰は、トレーニングセットがノイズラベルを持つ二項分類問題に対して有望なアプローチである。
十分な正則化強度に対して、最適重みは反対符号の2つの値の周りに集中していることを示す。
多くの場合、各重みの1ビットに対する「圧縮」が性能の損失を極めて少なくする。
論文 参考訳(メタデータ) (2023-11-03T23:18:21Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Label Encoding for Regression Networks [9.386028796990399]
回帰へのバイナリ分類の適用を一般化するバイナリ符号化ラベル(BEL)を導入する。
BELはいくつかの回帰ベンチマークで最先端の精度を達成する。
論文 参考訳(メタデータ) (2022-12-04T21:23:36Z) - Robust Neural Network Classification via Double Regularization [2.41710192205034]
本稿では、分類モデルの複雑さに対するペナルティと、学習観察の最適な再重み付けを組み合わせた、ニューラルネットワークトレーニング損失の新しい二重正則化を提案する。
我々は, (i) MNIST と (ii) CIFAR-10 のニューラルネット分類のための DRFit について, 両者の相違点について実証した。
論文 参考訳(メタデータ) (2021-12-15T13:19:20Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。