論文の概要: CAIRO: Decoupling Order from Scale in Regression
- arxiv url: http://arxiv.org/abs/2602.14440v1
- Date: Mon, 16 Feb 2026 03:50:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.128231
- Title: CAIRO: Decoupling Order from Scale in Regression
- Title(参考訳): CAIRO: 回帰の規模から秩序を分離する
- Authors: Harri Vanhems, Yue Zhao, Peng Shi, Archer Y. Yang,
- Abstract要約: 回帰を2つの異なる段階に分離する枠組みを提案する。
第1段階では,スケール不変ランキングの損失を最小限に抑えることで,スコアリング関数を学習する。
第2に,等速回帰による目標スケールの復元を行う。
- 参考スコア(独自算出の注目度): 13.755937210012883
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Standard regression methods typically optimize a single pointwise objective, such as mean squared error, which conflates the learning of ordering with the learning of scale. This coupling renders models vulnerable to outliers and heavy-tailed noise. We propose CAIRO (Calibrate After Initial Rank Ordering), a framework that decouples regression into two distinct stages. In the first stage, we learn a scoring function by minimizing a scale-invariant ranking loss; in the second, we recover the target scale via isotonic regression. We theoretically characterize a class of "Optimal-in-Rank-Order" objectives -- including variants of RankNet and Gini covariance -- and prove that they recover the ordering of the true conditional mean under mild assumptions. We further show that subsequent monotone calibration guarantees recovery of the true regression function. Empirically, CAIRO combines the representation learning of neural networks with the robustness of rank-based statistics. It matches the performance of state-of-the-art tree ensembles on tabular benchmarks and significantly outperforms standard regression objectives in regimes with heavy-tailed or heteroskedastic noise.
- Abstract(参考訳): 標準回帰法は通常、平均二乗誤差のような単一点目標を最適化するが、これはスケールの学習と順序付けの学習を融合させる。
この結合により、モデルが外れ値と重み付きノイズに脆弱になる。
我々は、回帰を2つの異なる段階に分離するフレームワークであるCAIRO(Calibrate After Initial Rank Ordering)を提案する。
第1段階では、スケール不変ランキングの損失を最小限に抑えてスコア関数を学習し、第2段階では、等調回帰により目標スケールを回復する。
理論的には、RangNetとGini共分散の変種を含む"Optimal-in-Rank-Order"の目的のクラスを特徴づけ、緩やかな仮定の下で真の条件平均の順序を回復することを証明する。
さらに,その後の単調キャリブレーションにより,真の回帰関数の回復が保証されることを示す。
CAIROは、ニューラルネットワークの表現学習とランクベースの統計の堅牢さを実証的に組み合わせている。
これは、タブ状のベンチマーク上での最先端のツリーアンサンブルのパフォーマンスと一致し、重尾やヘテロスケダティックノイズを持つレジームの標準回帰目標を著しく上回る。
関連論文リスト
- Self-Boost via Optimal Retraining: An Analysis via Approximate Message Passing [58.52119063742121]
独自の予測と潜在的にノイズの多いラベルを使ってモデルをトレーニングすることは、モデルパフォーマンスを改善するためのよく知られた戦略である。
本稿では,モデルの予測と提供ラベルを最適に組み合わせる方法について論じる。
我々の主な貢献は、現在のモデルの予測と与えられたラベルを組み合わせたベイズ最適集約関数の導出である。
論文 参考訳(メタデータ) (2025-05-21T07:16:44Z) - Benign Overfitting and the Geometry of the Ridge Regression Solution in Binary Classification [75.01389991485098]
リッジ回帰はクラスタ平均ベクトルのスケールによって定性的に異なる挙動を示す。
スケールが非常に大きいレジームでは、良心過剰を許容する条件は回帰タスクと同一であることが判明した。
論文 参考訳(メタデータ) (2025-03-11T01:45:42Z) - Generalization bounds for regression and classification on adaptive covering input domains [1.4141453107129398]
一般化誤差の上限となる一般化境界に着目する。
分類タスクの場合、対象関数を1ホット、ピースワイド定数関数として扱い、誤差測定に0/1ロスを用いる。
論文 参考訳(メタデータ) (2024-07-29T05:40:08Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Regularized Linear Regression for Binary Classification [20.710343135282116]
正規化線形回帰は、トレーニングセットがノイズラベルを持つ二項分類問題に対して有望なアプローチである。
十分な正則化強度に対して、最適重みは反対符号の2つの値の周りに集中していることを示す。
多くの場合、各重みの1ビットに対する「圧縮」が性能の損失を極めて少なくする。
論文 参考訳(メタデータ) (2023-11-03T23:18:21Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - THOR: Threshold-Based Ranking Loss for Ordinal Regression [17.384197085002686]
本稿では,インスタンスを順序カテゴリーに分類するための回帰に基づく順序回帰アルゴリズムを提案する。
回帰誤差を最小化することを目的とした新しいしきい値に基づくペアワイズ損失関数を追加し,平均絶対誤差(MAE)を最小化する。
5つの実世界のベンチマーク実験の結果、提案アルゴリズムは最先端の順序回帰アルゴリズムと比較して最良のMAE結果が得られることを示した。
論文 参考訳(メタデータ) (2022-05-10T13:04:09Z) - Rethinking Depth Estimation for Multi-View Stereo: A Unified
Representation and Focal Loss [13.814071773168044]
我々は、回帰と分類の利点を統一するために、統一と呼ばれる新しい表現を提案する。
分類法のようなコスト容積を直接制約することができるが、回帰法のようなサブピクセル深度予測も実現できる。
統一化の可能性を明らかにするため, 標本不均衡問題に対処する上で, より均一かつ合理的なUnified Focal Lossという新たな損失関数を設計した。
論文 参考訳(メタデータ) (2022-01-05T08:49:31Z) - Learning by Minimizing the Sum of Ranked Range [58.24935359348289]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
我々は,SoRRフレームワークの最小化のための機械学習における2つの応用,すなわち,バイナリ分類のためのAoRR集約損失とマルチラベル/マルチクラス分類のためのTKML個人損失について検討する。
論文 参考訳(メタデータ) (2020-10-05T01:58:32Z) - Adaptive Correlated Monte Carlo for Contextual Categorical Sequence
Generation [77.7420231319632]
我々は,モンテカルロ (MC) ロールアウトの集合を分散制御のために評価する政策勾配推定器に,カテゴリー列の文脈的生成を適用する。
また,二分木ソフトマックスモデルに相関したMCロールアウトを用いることで,大語彙シナリオにおける高生成コストを低減できることを示す。
論文 参考訳(メタデータ) (2019-12-31T03:01:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。