論文の概要: Improve Representation for Imbalanced Regression through Geometric Constraints
- arxiv url: http://arxiv.org/abs/2503.00876v1
- Date: Sun, 02 Mar 2025 12:31:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:16:53.594035
- Title: Improve Representation for Imbalanced Regression through Geometric Constraints
- Title(参考訳): 幾何学的制約による不均衡回帰の表現の改善
- Authors: Zijian Dong, Yilei Wu, Chongyao Chen, Yingtian Zou, Yichi Zhang, Juan Helen Zhou,
- Abstract要約: 2つの主要な損失を通じて不均衡な回帰のために、潜伏空間における均一性を確保することに注力する。
包み込み損失は、誘導されたトレースがハイパースフィアの表面を均一に占有するのを促進し、均質性損失は滑らかさを保証する。
本手法は,これらの幾何学的原理をSurrogate-driven Representation Learningフレームワークを介してデータ表現に統合する。
- 参考スコア(独自算出の注目度): 8.903197320328164
- License:
- Abstract: In representation learning, uniformity refers to the uniform feature distribution in the latent space (i.e., unit hypersphere). Previous work has shown that improving uniformity contributes to the learning of under-represented classes. However, most of the previous work focused on classification; the representation space of imbalanced regression remains unexplored. Classification-based methods are not suitable for regression tasks because they cluster features into distinct groups without considering the continuous and ordered nature essential for regression. In a geometric aspect, we uniquely focus on ensuring uniformity in the latent space for imbalanced regression through two key losses: enveloping and homogeneity. The enveloping loss encourages the induced trace to uniformly occupy the surface of a hypersphere, while the homogeneity loss ensures smoothness, with representations evenly spaced at consistent intervals. Our method integrates these geometric principles into the data representations via a Surrogate-driven Representation Learning (SRL) framework. Experiments with real-world regression and operator learning tasks highlight the importance of uniformity in imbalanced regression and validate the efficacy of our geometry-based loss functions.
- Abstract(参考訳): 表現学習において、一様性(英: uniformity)とは、潜在空間(すなわち単位超球面)における一様特徴分布のことである。
これまでの研究は、統一性の向上が、表現不足の授業の学習に寄与することを示してきた。
しかし、以前の研究のほとんどは分類に焦点を当てており、不均衡回帰の表現空間は未解明のままである。
分類に基づく手法は回帰に不可欠な連続性と順序性を考慮することなく、特徴を異なるグループにクラスタ化するので回帰タスクには適さない。
幾何学的側面では、包み込みと均一性という2つの主要な損失を通して、不均衡回帰に対する潜伏空間の均一性の確保に一意に焦点をあてる。
包み込み損失は、誘導されたトレースがハイパースフィアの表面を均一に占有することを促進する一方、均質性損失は、一貫した間隔で均等に間隔を保った表現で滑らか性を保証する。
本手法は,これらの幾何学的原理をSurrogate-driven Representation Learning (SRL)フレームワークを介してデータ表現に統合する。
実世界の回帰と演算子学習タスクを用いた実験は、不均衡回帰における均一性の重要性を強調し、幾何学に基づく損失関数の有効性を検証する。
関連論文リスト
- ACCon: Angle-Compensated Contrastive Regularizer for Deep Regression [28.491074229136014]
ディープレグレッションでは、特徴空間における連続ラベル間の関係を捉えることが、関心の高まりを惹きつけている根本的な課題である。
既存のアプローチは、しばしばオーダーアウェアな表現学習や距離に基づく重み付けに依存している。
本研究では, アンカーと負のサンプル間のコサイン距離を補正する, 深部回帰のための角度補償型コントラスト正規化器を提案する。
論文 参考訳(メタデータ) (2025-01-13T03:55:59Z) - Deep Regression Representation Learning with Topology [57.203857643599875]
回帰表現の有効性は,そのトポロジによってどのように影響されるかを検討する。
本稿では,特徴空間の内在次元と位相を対象空間と一致させる正則化器PH-Regを紹介する。
合成および実世界の回帰タスクの実験はPH-Regの利点を示している。
論文 参考訳(メタデータ) (2024-04-22T06:28:41Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Gradient Aligned Regression via Pairwise Losses [40.676226700035585]
Gradient Aligned Regression (GAR) はラベル空間において競合する代替手法である。
動作時間実験は既存の手法よりも提案したGARの効率が優れていることを示す。
ノイズやアウトレーヤ、分散シフトのないクリーンなデータ設定での回帰として、現在のスコープを制限します。
論文 参考訳(メタデータ) (2024-02-08T23:43:53Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - Spatially and Robustly Hybrid Mixture Regression Model for Inference of
Spatial Dependence [15.988679065054498]
本研究では,空間領域上での応答変数と説明変数の集合との関係を検討するために,空間ロバスト混合回帰モデルを提案する。
本手法は, 空間的非定常性, 局所的均一性, 外れ値の同時処理を行うために, 空間的制約を伴う頑健な有限混合ガウス回帰モデルを統合する。
多くの合成および実世界のデータセットに対する実験結果から,提案手法のロバスト性,精度,有効性が確認された。
論文 参考訳(メタデータ) (2021-09-01T16:29:46Z) - Uniform Consistency in Nonparametric Mixture Models [12.382836502781258]
非パラメトリック混合モデルと混合回帰モデルにおける一様整合性について検討する。
混合回帰の場合、回帰関数の$L1$収束を証明し、成分回帰関数を任意に交わすことができる。
論文 参考訳(メタデータ) (2021-08-31T17:53:52Z) - On dissipative symplectic integration with applications to
gradient-based optimization [77.34726150561087]
本稿では,離散化を体系的に実現する幾何学的枠組みを提案する。
我々は、シンプレクティックな非保守的、特に散逸的なハミルトン系への一般化が、制御された誤差まで収束率を維持することができることを示す。
論文 参考訳(メタデータ) (2020-04-15T00:36:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。