論文の概要: ConR: Contrastive Regularizer for Deep Imbalanced Regression
- arxiv url: http://arxiv.org/abs/2309.06651v4
- Date: Wed, 13 Mar 2024 19:10:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-16 02:52:49.996102
- Title: ConR: Contrastive Regularizer for Deep Imbalanced Regression
- Title(参考訳): ConR: 深い不均衡回帰のためのコントラスト正規化器
- Authors: Mahsa Keramati, Lili Meng, R. David Evans,
- Abstract要約: ConRは、グローバルおよびローカルなラベル類似性を特徴空間でモデル化する対照的な正規化器である。
その結果,ConRは4つの大規模深層不均衡回帰ベンチマークにおける最先端手法の性能を著しく向上させることを示した。
- 参考スコア(独自算出の注目度): 6.5356646210003015
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imbalanced distributions are ubiquitous in real-world data. They create constraints on Deep Neural Networks to represent the minority labels and avoid bias towards majority labels. The extensive body of imbalanced approaches address categorical label spaces but fail to effectively extend to regression problems where the label space is continuous. Local and global correlations among continuous labels provide valuable insights towards effectively modelling relationships in feature space. In this work, we propose ConR, a contrastive regularizer that models global and local label similarities in feature space and prevents the features of minority samples from being collapsed into their majority neighbours. ConR discerns the disagreements between the label space and feature space and imposes a penalty on these disagreements. ConR addresses the continuous nature of label space with two main strategies in a contrastive manner: incorrect proximities are penalized proportionate to the label similarities and the correct ones are encouraged to model local similarities. ConR consolidates essential considerations into a generic, easy-to-integrate, and efficient method that effectively addresses deep imbalanced regression. Moreover, ConR is orthogonal to existing approaches and smoothly extends to uni- and multi-dimensional label spaces. Our comprehensive experiments show that ConR significantly boosts the performance of all the state-of-the-art methods on four large-scale deep imbalanced regression benchmarks. Our code is publicly available in https://github.com/BorealisAI/ConR.
- Abstract(参考訳): 不均衡な分布は、実世界のデータの中でユビキタスである。
マイノリティラベルを表現し、多数派ラベルへの偏見を避けるため、Deep Neural Networksに制約を課す。
不均衡なアプローチの広範な本体は分類ラベル空間に対処するが、ラベル空間が連続である回帰問題に効果的に拡張できない。
連続ラベル間の局所的およびグローバル的相関は、特徴空間における関係を効果的にモデル化するための貴重な洞察を提供する。
本研究では,特徴空間におけるグローバルおよびローカルなラベル類似性をモデル化し,少数サンプルの特徴が多数派に崩壊するのを防止するためのコントラストレギュレータであるConRを提案する。
ConRはラベル空間と特徴空間の相違を認識し、これらの相違に対してペナルティを課す。
ConRは2つの主要な戦略でラベル空間の連続的な性質を対照的に扱い、不正確な近さはラベル類似度に比例して罰せられ、正しいものは局所類似度をモデル化するよう奨励される。
ConRは、深い不均衡な回帰に効果的に対処する、ジェネリックで、容易に統合され、効率的な方法に重要な考慮事項を集約する。
さらに、ConRは既存のアプローチと直交し、一次元および多次元のラベル空間に滑らかに拡張する。
総合的な実験により、ConRは4つの大規模深層不均衡回帰ベンチマークにおいて、最先端のすべての手法の性能を大幅に向上させることが示された。
私たちのコードはhttps://github.com/BorealisAI/ConR.comで公開されています。
関連論文リスト
- Towards Self-Supervised Covariance Estimation in Deep Heteroscedastic Regression [102.24287051757469]
深部異方性回帰における自己教師付き共分散推定について検討する。
正規分布の間の2-ワッサーシュタイン距離の上界を導出する。
幅広い合成データセットと実データセットに対する実験により、提案された2-ワッサーシュタインと擬似ラベルアノテーションが結合した結果、計算的に安価で正確な深部ヘテロ代用回帰が導かれることが示された。
論文 参考訳(メタデータ) (2025-02-14T22:37:11Z) - Error Distribution Smoothing:Advancing Low-Dimensional Imbalanced Regression [2.435853975142516]
実世界の回帰タスクでは、データセットは頻繁に不均衡な分布を示し、その特徴は、高複雑さ領域におけるデータの不足と低複雑さ領域における量の不足である。
データ密度のみに焦点をあてる従来の定義を超えて、問題の複雑さとデータポイントの密度の両方を考慮に入れた「不均衡回帰」という新しい概念を導入する。
本研究では,不均衡な回帰に対処するための解として誤り分布平滑化(EDS)を提案し,バランスと代表性を保ちながら,データセットから代表サブセットを効果的に選択し冗長性を低減する。
論文 参考訳(メタデータ) (2025-02-04T12:40:07Z) - Exploring Homogeneous and Heterogeneous Consistent Label Associations for Unsupervised Visible-Infrared Person ReID [57.500045584556794]
均質かつ不均一なインスタンスレベルの構造を同時に説明できるModality-Unified Label Transfer (MULT) モジュールを導入する。
提案したMULTは、生成した擬似ラベルがモダリティ間の整合性を維持しつつ、モダリティ内の構造的整合性を維持することを保証する。
実験の結果,提案手法は既存のUSL-VI-ReID法よりも優れていた。
論文 参考訳(メタデータ) (2024-02-01T15:33:17Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - RankSim: Ranking Similarity Regularization for Deep Imbalanced
Regression [48.58405556678924]
RankSimはインダクティブバイアスを符号化し、ラベル空間に近くサンプルが特徴空間に近くなる。
RankSimは従来の不均衡学習手法を補完するものである。
論文 参考訳(メタデータ) (2022-05-30T16:51:25Z) - Part-based Pseudo Label Refinement for Unsupervised Person
Re-identification [29.034390810078172]
教師なしの人物再識別(re-ID)は、ラベルなしデータから人物検索のための識別表現を学習することを目的としている。
近年の手法では擬似ラベルを用いることでこの課題が達成されているが,これらのラベルは本質的にノイズが多く,精度が低下している。
本稿では,グローバルな特徴と部分的特徴の相補関係を利用して,ラベルノイズを低減するPseudo Label Refinement (PPLR) フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-28T12:15:53Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Delving into Deep Imbalanced Regression [41.90687097747504]
我々は,不均衡回帰(dir)を,連続目標を持つ不均衡データからの学習として定義する。
分類空間と連続ラベル空間の差を動機として,ラベルと特徴の分布平滑化を提案する。
我々の研究は、実際の不均衡回帰問題に対するベンチマークとテクニックのギャップを埋める。
論文 参考訳(メタデータ) (2021-02-18T18:56:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。