論文の概要: Brenier Isotonic Regression
- arxiv url: http://arxiv.org/abs/2603.10452v1
- Date: Wed, 11 Mar 2026 06:10:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.803679
- Title: Brenier Isotonic Regression
- Title(参考訳): Brenier isotonic Regression
- Authors: Han Bao, Amirreza Eshraghi, Yutong Wang,
- Abstract要約: 回帰関数が多周期単調な新しい多出力回帰問題を考える。
我々はカントロビッチの最適輸送(OT)が常に最適解として環状モノトンカップリングをもたらすという事実を活用する。
この観点は自然に回帰関数と凸ポテンシャルを一般化線形モデルにおけるリンク関数として解釈し、ブレーニエのOTにおけるポテンシャルを解釈することを可能にする。
- 参考スコア(独自算出の注目度): 8.285522583692144
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Isotonic regression (IR) is shape-constrained regression to maintain a univariate fitting curve non-decreasing, which has numerous applications including single-index models and probability calibration. When it comes to multi-output regression, the classical IR is no longer applicable because the monotonicity is not readily extendable. We consider a novel multi-output regression problem where a regression function is \emph{cyclically monotone}. Roughly speaking, a cyclically monotone function is the gradient of some convex potential. Whereas enforcing cyclic monotonicity is apparently challenging, we leverage the fact that Kantorovich's optimal transport (OT) always yields a cyclically monotone coupling as an optimal solution. This perspective naturally allows us to interpret a regression function and the convex potential as a link function in generalized linear models and Brenier's potential in OT, respectively, and hence we call this IR extension \emph{Brenier isotonic regression}. We demonstrate experiments with probability calibration and generalized linear models. In particular, IR outperforms many famous baselines in probability calibration robustly.
- Abstract(参考訳): アイソトニック回帰(IR)は、単変量適合曲線の非減少を維持するために、形状に制約のある回帰であり、単一のインデックスモデルや確率キャリブレーションを含む多くの応用がある。
多出力回帰に関しては、単調性は容易に拡張できないため、古典的IRはもはや適用できない。
回帰関数が 'emph{cyclically monotone} であるような新しい多出力回帰問題を考える。
概して、巡回単調関数は凸ポテンシャルの勾配である。
環状モノトニック性の強制は明らかに難しいが、カントロビッチの最適輸送(OT)は常に最適解として環状モノトンカップリングをもたらすという事実を利用する。
この観点は自然に、一般線型モデルにおける回帰関数と凸ポテンシャルをそれぞれ OT におけるブレニエポテンシャルをリンク関数として解釈することができるので、この IR 拡張を \emph{Brenier isotonic regression} と呼ぶ。
確率キャリブレーションと一般化線形モデルを用いた実験を実演する。
特に、IRは確率キャリブレーションにおいて、多くの有名なベースラインを頑健に上回る。
関連論文リスト
- Test Set Sizing for the Ridge Regression [51.56484100374058]
訓練行数mが大きくなる限界において、リッジ回帰のための理想的な列車/試験分割を高精度に導出する。
このような分割が、大規模なデータ制限下で機械学習モデルに対して数学的に計算されるのは、これが初めてである。
論文 参考訳(メタデータ) (2025-04-27T13:17:18Z) - Benign overfitting in Fixed Dimension via Physics-Informed Learning with Smooth Inductive Bias [8.668428992331808]
我々は,線形逆問題に対処する際,カーネルリッジ(レス)回帰のためのソボレフノルム学習曲線を開発した。
この結果から, 逆問題におけるPDE演算子は分散を安定化し, 固定次元問題に対して良性オーバーフィッティングを行うことが可能であることがわかった。
論文 参考訳(メタデータ) (2024-06-13T14:54:30Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Learning linear operators: Infinite-dimensional regression as a well-behaved non-compact inverse problem [4.503368323711748]
経験的観測から2つのヒルベルト空間の間の線型作用素を$theta$で学習する問題を考察する。
この目標を$theta$の逆問題として、フォワード演算子が一般に非コンパクトであるような特徴で再定義できることが示される。
この逆問題は、スカラー応答回帰の導出に伴う既知のコンパクト逆問題と等価であることを示す。
論文 参考訳(メタデータ) (2022-11-16T12:33:01Z) - $p$-Generalized Probit Regression and Scalable Maximum Likelihood
Estimation via Sketching and Coresets [74.37849422071206]
本稿では, 2次応答に対する一般化線形モデルである,$p$一般化プロビット回帰モデルについて検討する。
p$の一般化されたプロビット回帰に対する最大可能性推定器は、大容量データ上で$(1+varepsilon)$の係数まで効率的に近似できることを示す。
論文 参考訳(メタデータ) (2022-03-25T10:54:41Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Max-Linear Regression by Convex Programming [5.366354612549172]
我々は、最大線形回帰問題の推定器として、アンカーレグレッション(AR)によって与えられるスケーラブルな凸プログラムを定式化し、解析する。
以上の結果から, 対数係数まで, 正確な回復スケールについて, 十分な数のノイズのない観測結果が得られた。
論文 参考訳(メタデータ) (2021-03-12T00:55:54Z) - Online nonparametric regression with Sobolev kernels [99.12817345416846]
我々は、ソボレフ空間のクラス上の後悔の上限を$W_pbeta(mathcalX)$, $pgeq 2, beta>fracdp$ とする。
上界は minimax regret analysis で支えられ、$beta> fracd2$ または $p=infty$ の場合、これらの値は(本質的に)最適である。
論文 参考訳(メタデータ) (2021-02-06T15:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。