論文の概要: Regression via Implicit Models and Optimal Transport Cost Minimization
- arxiv url: http://arxiv.org/abs/2003.01296v1
- Date: Tue, 3 Mar 2020 02:26:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 21:49:06.985552
- Title: Regression via Implicit Models and Optimal Transport Cost Minimization
- Title(参考訳): 暗黙モデルによる回帰と最適輸送コスト最小化
- Authors: Saurav Manchanda and Khoa Doan and Pranjul Yadav and S. Sathiya
Keerthi
- Abstract要約: 条件付きGAN (CGAN) が回帰に適用されている。
現在のCGAN実装では、古典的なジェネレータ-ディスクリミネータアーキテクチャを使用している。
実確率分布$p(y|x)$と推定分布$hatp(y|x)$との間の最適輸送コストを直接最適化する解を提案する。
- 参考スコア(独自算出の注目度): 5.144809478361603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the classic problem of regression, which involves the
inductive learning of a map, $y=f(x,z)$, $z$ denoting noise,
$f:\mathbb{R}^n\times \mathbb{R}^k \rightarrow \mathbb{R}^m$. Recently,
Conditional GAN (CGAN) has been applied for regression and has shown to be
advantageous over the other standard approaches like Gaussian Process
Regression, given its ability to implicitly model complex noise forms. However,
the current CGAN implementation for regression uses the classical
generator-discriminator architecture with the minimax optimization approach,
which is notorious for being difficult to train due to issues like training
instability or failure to converge. In this paper, we take another step towards
regression models that implicitly model the noise, and propose a solution which
directly optimizes the optimal transport cost between the true probability
distribution $p(y|x)$ and the estimated distribution $\hat{p}(y|x)$ and does
not suffer from the issues associated with the minimax approach. On a variety
of synthetic and real-world datasets, our proposed solution achieves
state-of-the-art results. The code accompanying this paper is available at
"https://github.com/gurdaspuriya/ot_regression".
- Abstract(参考訳): 本稿では、回帰の古典的な問題に対処し、写像の帰納的学習を$y=f(x,z)$, $z$ denoting noise, $f:\mathbb{R}^n\times \mathbb{R}^k \rightarrow \mathbb{R}^m$とする。
近年、条件付きGAN(CGAN)が回帰に応用され、複雑なノイズ形式を暗黙的にモデル化できることから、ガウス過程回帰のような他の標準手法よりも有利であることが示されている。
しかし、現在のレグレッションのためのCGAN実装では、従来のジェネレータ-差別化アーキテクチャとミニマックス最適化アプローチを使用している。
本稿では、雑音を暗黙的にモデル化する回帰モデルに向けて、真確率分布$p(y|x)$と推定分布$\hat{p}(y|x)$との間の最適な輸送コストを直接最適化する解を提案し、ミニマックスアプローチに関連する問題に悩まされない。
様々な合成および実世界のデータセットに基づいて,提案手法は最先端の結果を得る。
この論文に付随するコードは"https://github.com/gurdaspuriya/ot_regression"で入手できる。
関連論文リスト
- Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Permuted and Unlinked Monotone Regression in $\mathbb{R}^d$: an approach
based on mixture modeling and optimal transport [4.924126492174802]
回帰関数の巡回的単調性の概念は、置換/無リンク回帰モデルにおける同定と推定に十分であることを示す。
我々は,Keefer-Wolfowitz に基づく,計算効率が良く,使いやすいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-01-10T18:37:59Z) - ReLU Regression with Massart Noise [52.10842036932169]
本稿では、ReLU回帰の基本的問題として、Rectified Linear Units(ReLU)をデータに適合させることを目標としている。
我々は自然およびよく研究された半ランダムノイズモデルであるMassartノイズモデルにおけるReLU回帰に着目した。
このモデルにおいて,パラメータの正確な回復を実現する効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-09-10T02:13:22Z) - A Precise Performance Analysis of Support Vector Regression [105.94855998235232]
我々は,n$の線形測定に応用したハードおよびソフトサポートベクター回帰法について検討した。
得られた結果は、ハードおよびソフトサポートベクトル回帰アルゴリズムの設計に介入するパラメータを最適に調整するために使用される。
論文 参考訳(メタデータ) (2021-05-21T14:26:28Z) - Estimating Stochastic Linear Combination of Non-linear Regressions
Efficiently and Scalably [23.372021234032363]
サブサンプルサイズが大きくなると、推定誤差が過度に犠牲になることを示す。
私たちの知る限りでは、線形テキスト+確率モデルが保証される最初の研究です。
論文 参考訳(メタデータ) (2020-10-19T07:15:38Z) - Maximin Optimization for Binary Regression [24.351803097593887]
二分重の回帰問題は、量子化学習モデルやデジタル通信システムにおいてユビキタスである。
Lagrangran法はまた、非ニューラルネットワーク多層サドルポイント最適化と同様に、クロスエントロピー損失を伴う回帰でもよく機能する。
論文 参考訳(メタデータ) (2020-10-10T19:47:40Z) - Minimum discrepancy principle strategy for choosing $k$ in $k$-NN regression [2.0411082897313984]
保持データを用いずに、$k$-NN回帰推定器でハイパーパラメータ$k$を選択するための新しいデータ駆動戦略を提案する。
本稿では,早期停止と最小一致原理に基づく実践的戦略を実践的に容易に導入することを提案する。
論文 参考訳(メタデータ) (2020-08-20T00:13:19Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z) - Least Squares Regression with Markovian Data: Fundamental Limits and
Algorithms [69.45237691598774]
マルコフ連鎖からデータポイントが依存しサンプリングされる最小二乗線形回帰問題について検討する。
この問題を$tau_mathsfmix$という観点から、鋭い情報理論のミニマックス下限を確立する。
本稿では,経験的リプレイに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T04:26:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。