論文の概要: ConR: Contrastive Regularizer for Deep Imbalanced Regression
- arxiv url: http://arxiv.org/abs/2309.06651v3
- Date: Thu, 15 Feb 2024 08:22:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 23:48:28.924175
- Title: ConR: Contrastive Regularizer for Deep Imbalanced Regression
- Title(参考訳): conr: 深い不均衡回帰のための対比正規化器
- Authors: Mahsa Keramati, Lili Meng, R. David Evans
- Abstract要約: ConRは、グローバルおよびローカルなラベル類似性を特徴空間でモデル化する対照的な正規化器である。
その結果,ConRは4つの大規模深層不均衡回帰ベンチマークにおける最先端手法の性能を著しく向上させることを示した。
- 参考スコア(独自算出の注目度): 7.345432063221339
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imbalanced distributions are ubiquitous in real-world data. They create
constraints on Deep Neural Networks to represent the minority labels and avoid
bias towards majority labels. The extensive body of imbalanced approaches
address categorical label spaces but fail to effectively extend to regression
problems where the label space is continuous. Local and global correlations
among continuous labels provide valuable insights towards effectively modelling
relationships in feature space. In this work, we propose ConR, a contrastive
regularizer that models global and local label similarities in feature space
and prevents the features of minority samples from being collapsed into their
majority neighbours. ConR discerns the disagreements between the label space
and feature space and imposes a penalty on these disagreements. ConR addresses
the continuous nature of label space with two main strategies in a contrastive
manner: incorrect proximities are penalized proportionate to the label
similarities and the correct ones are encouraged to model local similarities.
ConR consolidates essential considerations into a generic, easy-to-integrate,
and efficient method that effectively addresses deep imbalanced regression.
Moreover, ConR is orthogonal to existing approaches and smoothly extends to
uni- and multi-dimensional label spaces. Our comprehensive experiments show
that ConR significantly boosts the performance of all the state-of-the-art
methods on four large-scale deep imbalanced regression benchmarks. Our code is
publicly available in https://github.com/BorealisAI/ConR.
- Abstract(参考訳): 不均衡分布は実世界データにおいてユビキタスである。
マイノリティラベルを表現し、多数派ラベルへの偏見を避けるため、Deep Neural Networksに制約を課す。
不均衡なアプローチの広範な本体は分類ラベル空間に対処するが、ラベル空間が連続である回帰問題に効果的に拡張できない。
連続ラベル間の局所的およびグローバル的相関は、特徴空間における関係を効果的にモデル化するための貴重な洞察を提供する。
本研究では,特徴空間におけるグローバルおよびローカルなラベル類似性をモデル化し,少数のサンプルの特徴が多数派に崩壊することを防ぐコントラストレギュレータを提案する。
ConRはラベル空間と特徴空間の相違を認識し、これらの相違に対してペナルティを課す。
ConRは2つの主要な戦略でラベル空間の連続的な性質を対照的に扱い、不正確な近さはラベル類似度に比例して罰せられ、正しいものは局所類似度をモデル化するよう奨励される。
ConRは、深い不均衡な回帰に効果的に対処する、ジェネリックで、容易に統合され、効率的な方法に重要な考慮事項を集約する。
さらに、ConRは既存のアプローチと直交し、一次元および多次元のラベル空間に滑らかに拡張する。
総合実験の結果,conrは4つの大規模深部不均衡回帰ベンチマークにおいて,最先端手法の性能を著しく向上させることがわかった。
私たちのコードはhttps://github.com/borealisai/conrで公開されています。
関連論文リスト
- RankMatch: A Novel Approach to Semi-Supervised Label Distribution
Learning Leveraging Inter-label Correlations [52.549807652527306]
本稿では,SSLDL (Semi-Supervised Label Distribution Learning) の革新的なアプローチである RankMatch を紹介する。
RankMatchは、ラベルのない大量のデータとともに、少数のラベル付き例を効果的に活用する。
我々はRandMatchに縛られる理論的な一般化を確立し、広範な実験を通じて既存のSSLDL法に対する性能上の優位性を実証した。
論文 参考訳(メタデータ) (2023-12-11T12:47:29Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - RankSim: Ranking Similarity Regularization for Deep Imbalanced
Regression [48.58405556678924]
RankSimはインダクティブバイアスを符号化し、ラベル空間に近くサンプルが特徴空間に近くなる。
RankSimは従来の不均衡学習手法を補完するものである。
論文 参考訳(メタデータ) (2022-05-30T16:51:25Z) - Part-based Pseudo Label Refinement for Unsupervised Person
Re-identification [29.034390810078172]
教師なしの人物再識別(re-ID)は、ラベルなしデータから人物検索のための識別表現を学習することを目的としている。
近年の手法では擬似ラベルを用いることでこの課題が達成されているが,これらのラベルは本質的にノイズが多く,精度が低下している。
本稿では,グローバルな特徴と部分的特徴の相補関係を利用して,ラベルノイズを低減するPseudo Label Refinement (PPLR) フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-28T12:15:53Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Delving into Deep Imbalanced Regression [41.90687097747504]
我々は,不均衡回帰(dir)を,連続目標を持つ不均衡データからの学習として定義する。
分類空間と連続ラベル空間の差を動機として,ラベルと特徴の分布平滑化を提案する。
我々の研究は、実際の不均衡回帰問題に対するベンチマークとテクニックのギャップを埋める。
論文 参考訳(メタデータ) (2021-02-18T18:56:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。