論文の概要: Leveraging Group Classification with Descending Soft Labeling for Deep Imbalanced Regression
- arxiv url: http://arxiv.org/abs/2412.12327v1
- Date: Mon, 16 Dec 2024 19:54:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:57:56.955230
- Title: Leveraging Group Classification with Descending Soft Labeling for Deep Imbalanced Regression
- Title(参考訳): Descending Soft Labeling を用いた深部不均衡回帰のためのグループ分類
- Authors: Ruizhi Pu, Gezheng Xu, Ruiyi Fang, Binkun Bao, Charles X. Ling, Boyu Wang,
- Abstract要約: ディープ・インバランス・レグレッション(DIR)は、機械学習において興味深いが未探索の課題である。
まず、DIRの目的とベイズ的観点からの分類の関連性を橋渡しする。
具体的には、近隣のラベルのデータを同じグループに集約することにより、順序付きグループ認識学習損失を導入する。
また,データ間の固有類似性を生かした対称な下降型ソフトラベリング手法を提案する。
- 参考スコア(独自算出の注目度): 6.649953811669191
- License:
- Abstract: Deep imbalanced regression (DIR), where the target values have a highly skewed distribution and are also continuous, is an intriguing yet under-explored problem in machine learning. While recent works have already shown that incorporating various classification-based regularizers can produce enhanced outcomes, the role of classification remains elusive in DIR. Moreover, such regularizers (e.g., contrastive penalties) merely focus on learning discriminative features of data, which inevitably results in ignorance of either continuity or similarity across the data. To address these issues, we first bridge the connection between the objectives of DIR and classification from a Bayesian perspective. Consequently, this motivates us to decompose the objective of DIR into a combination of classification and regression tasks, which naturally guides us toward a divide-and-conquer manner to solve the DIR problem. Specifically, by aggregating the data at nearby labels into the same groups, we introduce an ordinal group-aware contrastive learning loss along with a multi-experts regressor to tackle the different groups of data thereby maintaining the data continuity. Meanwhile, considering the similarity between the groups, we also propose a symmetric descending soft labeling strategy to exploit the intrinsic similarity across the data, which allows classification to facilitate regression more effectively. Extensive experiments on real-world datasets also validate the effectiveness of our method.
- Abstract(参考訳): ターゲット値が高度に歪んだ分布を持ち、かつ連続的なディープ不均衡回帰(DIR)は、機械学習において興味深いが未探索の課題である。
近年の研究では、様々な分類ベースの正則化器を組み込むことで、より高度な結果が得られることが示されているが、DIRにおける分類の役割はいまだ解明されていない。
さらに、そのような正規化器(例えば、対照的なペナルティ)は単にデータの識別的特徴の学習にのみ焦点を合わせ、必然的にデータ間の連続性や類似性を無視する。
これらの問題に対処するために、まずDIRの目的とベイズ的観点からの分類の関連を橋渡しする。
これにより、DIRの目的を分類タスクと回帰タスクの組合せに分解する動機となり、DIR問題を解くために、自然に分割・解法へと導いてくれる。
具体的には、近隣のラベルのデータを同じグループに集約することで、データ継続性を維持するために、複数の専門家のレグレッタとともに、順序付きグループ対応のコントラスト学習損失を導入する。
一方,グループ間の類似性を考慮すると,データ間の固有類似性を利用する対称的な下降型ソフトラベリング戦略も提案する。
実世界のデータセットに関する大規模な実験も,本手法の有効性を検証した。
関連論文リスト
- Similarity-Dissimilarity Loss with Supervised Contrastive Learning for Multi-label Classification [11.499489446062054]
マルチラベル分類のためのコントラスト学習を用いた類似性-類似性損失を提案する。
提案する損失は、教師付きコントラスト学習パラダイムの下で、すべてのエンコーダの性能を効果的に向上させる。
論文 参考訳(メタデータ) (2024-10-17T11:12:55Z) - Decoupling the Class Label and the Target Concept in Machine Unlearning [81.69857244976123]
機械学習の目的は、トレーニングデータの一部を除外した再トレーニングされたモデルを近似するために、トレーニングされたモデルを調整することだ。
過去の研究では、クラスワイド・アンラーニングが対象クラスの知識を忘れることに成功していることが示された。
我々は、TARget-aware Forgetting (TARF) という一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-12T14:53:30Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Unilaterally Aggregated Contrastive Learning with Hierarchical
Augmentation for Anomaly Detection [64.50126371767476]
階層的拡張(UniCon-HA)を用いた一方的集約型コントラスト学習を提案する。
我々は、教師付きおよび教師なしの対照的な損失を通じて、インレーヤの濃度と仮想外れ値の分散を明示的に奨励する。
本手法は,ラベルなし1クラス,ラベルなしマルチクラス,ラベル付きマルチクラスを含む3つのAD設定で評価される。
論文 参考訳(メタデータ) (2023-08-20T04:01:50Z) - CADIS: Handling Cluster-skewed Non-IID Data in Federated Learning with
Clustered Aggregation and Knowledge DIStilled Regularization [3.3711670942444014]
フェデレーション学習は、エッジデバイスがデータを公開することなく、グローバルモデルを協調的にトレーニングすることを可能にする。
我々は、実際のデータセットで発見されたクラスタスキュード非IIDと呼ばれる新しいタイプの非IIDデータに取り組む。
本稿では,クラスタ間の平等を保証するアグリゲーション方式を提案する。
論文 参考訳(メタデータ) (2023-02-21T02:53:37Z) - Deep Clustering based Fair Outlier Detection [19.601280507914325]
本稿では,統合深層クラスタリングと外乱検出を強化するために,インスタンスレベルの重み付き表現学習戦略を提案する。
我々のDCFOD法は, 異常検出において, 異常検出の妥当性と2種類のフェアネス概念の両面において, 常に優れた性能を達成している。
論文 参考訳(メタデータ) (2021-06-09T15:12:26Z) - Learning from Self-Discrepancy via Multiple Co-teaching for Cross-Domain
Person Re-Identification [12.106894735305714]
ドメイン適応者再IDのための複数コティーチングフレームワークを提案する。
本手法は最先端技術と比較して競争力が向上する。
論文 参考訳(メタデータ) (2021-04-06T03:12:11Z) - Delving into Deep Imbalanced Regression [41.90687097747504]
我々は,不均衡回帰(dir)を,連続目標を持つ不均衡データからの学習として定義する。
分類空間と連続ラベル空間の差を動機として,ラベルと特徴の分布平滑化を提案する。
我々の研究は、実際の不均衡回帰問題に対するベンチマークとテクニックのギャップを埋める。
論文 参考訳(メタデータ) (2021-02-18T18:56:03Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。