論文の概要: Deep Ordinal Regression with Label Diversity
- arxiv url: http://arxiv.org/abs/2006.15864v1
- Date: Mon, 29 Jun 2020 08:23:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 13:36:44.502185
- Title: Deep Ordinal Regression with Label Diversity
- Title(参考訳): ラベル多様性を伴う奥行き回帰
- Authors: Axel Berg, Magnus Oskarsson and Mark O'Connor
- Abstract要約: 本稿では,複数の離散データ表現を同時に使用することで,ニューラルネットワーク学習を改善することを提案する。
我々のアプローチはエンドツーエンドで微分可能であり、従来の学習方法への単純な拡張として追加することができる。
- 参考スコア(独自算出の注目度): 19.89482062012177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regression via classification (RvC) is a common method used for regression
problems in deep learning, where the target variable belongs to a set of
continuous values. By discretizing the target into a set of non-overlapping
classes, it has been shown that training a classifier can improve neural
network accuracy compared to using a standard regression approach. However, it
is not clear how the set of discrete classes should be chosen and how it
affects the overall solution. In this work, we propose that using several
discrete data representations simultaneously can improve neural network
learning compared to a single representation. Our approach is end-to-end
differentiable and can be added as a simple extension to conventional learning
methods, such as deep neural networks. We test our method on three challenging
tasks and show that our method reduces the prediction error compared to a
baseline RvC approach while maintaining a similar model complexity.
- Abstract(参考訳): RvC(Regression via classification)は、ディープラーニングにおける回帰問題において、ターゲット変数が連続した値の集合に属する一般的な方法である。
非重複クラスにターゲットを識別することで、分類器のトレーニングが標準的な回帰アプローチよりもニューラルネットワークの精度を向上させることが示されている。
しかし、離散クラスのセットがどう選択されるべきか、そしてそれが全体的なソリューションにどのように影響するかは明らかではない。
本研究では,複数の離散データ表現を同時に使用することで,単一の表現よりもニューラルネットワーク学習を改善することを提案する。
我々のアプローチはエンドツーエンドの微分可能であり、ディープニューラルネットワークのような従来の学習方法への単純な拡張として追加することができる。
我々は,3つの課題に対して本手法を検証し,モデル複雑性を維持しつつ,ベースラインRvC手法と比較して予測誤差を低減させることを示した。
関連論文リスト
- CBR - Boosting Adaptive Classification By Retrieval of Encrypted Network Traffic with Out-of-distribution [9.693391036125908]
一般的なアプローチの1つは、一定の数のクラスで機械学習またはディープラーニングベースのソリューションを使用することである。
未知のクラスを扱うソリューションの1つは、モデルを再トレーニングすることである。
本稿では,暗号ネットワークトラフィック分類の新しいアプローチであるRetrieval CBRによる適応分類を提案する。
論文 参考訳(メタデータ) (2024-03-17T13:14:09Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Continual Learning via Sequential Function-Space Variational Inference [65.96686740015902]
連続学習を逐次関数空間変動推論として定式化した目的を提案する。
ニューラルネットワークの予測を直接正規化する目的と比較して、提案した目的はより柔軟な変動分布を可能にする。
タスクシーケンスの範囲で、逐次関数空間変動推論によってトレーニングされたニューラルネットワークは、関連する手法でトレーニングされたネットワークよりも予測精度が良いことを実証した。
論文 参考訳(メタデータ) (2023-12-28T18:44:32Z) - Towards Diverse Evaluation of Class Incremental Learning: A Representation Learning Perspective [67.45111837188685]
クラスインクリメンタル学習(CIL)アルゴリズムは、インクリメンタルに到着したデータから新しいオブジェクトクラスを継続的に学習することを目的としている。
表現学習における様々な評価プロトコルを用いて,CILアルゴリズムによって訓練されたニューラルネットワークモデルを実験的に解析する。
論文 参考訳(メタデータ) (2022-06-16T11:44:11Z) - Understanding the Generalization of Adam in Learning Neural Networks
with Proper Regularization [118.50301177912381]
我々は,重力減衰グローバリゼーションにおいても,目的の異なる解に確実に異なる誤差で収束できることを示す。
凸と重み減衰正則化を用いると、Adamを含む任意の最適化アルゴリズムは同じ解に収束することを示す。
論文 参考訳(メタデータ) (2021-08-25T17:58:21Z) - Class-Incremental Learning with Generative Classifiers [6.570917734205559]
本稿では,クラス増分学習のための新しい戦略を提案する。
本提案は,p(x|y)p(y) として分解された合同分布 p(x,y) を学習し,ベイズ則を用いた分類を行うことである。
ここでは,各学習クラスに対して,変分オートエンコーダをトレーニングすることで,この戦略を実証する。
論文 参考訳(メタデータ) (2021-04-20T16:26:14Z) - Meta-learning representations for clustering with infinite Gaussian
mixture models [39.56814839510978]
クラスタリング性能を向上させるためにニューラルネットワークを訓練するメタラーニング手法を提案する。
提案手法は,非ラベルデータとは異なるラベルデータを用いた知識メタ学習を用いて,未ラベルデータをクラスタ化することができる。
論文 参考訳(メタデータ) (2021-03-01T02:05:31Z) - Learning a binary search with a recurrent neural network. A novel
approach to ordinal regression analysis [0.0]
本稿では,順序回帰における深層学習フレームワークが提供するシーケンス・ツー・シーケンス学習手法の応用について検討する。
対象変数の順序に応じてモデルの説明変数を可視化する手法を提案する。
この手法は、多くのベンチマークデータセット上の従来の順序回帰法と比較され、同等またははるかに優れた予測能力を有することが示されている。
論文 参考訳(メタデータ) (2021-01-07T16:16:43Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z) - Regularizing Class-wise Predictions via Self-knowledge Distillation [80.76254453115766]
類似サンプル間の予測分布を解析する新しい正規化法を提案する。
これにより、単一のネットワークの暗黒知識(すなわち誤った予測に関する知識)を規則化する。
画像分類タスクにおける実験結果から, 単純だが強力な手法が一般化能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-03-31T06:03:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。