論文の概要: Oversampling Divide-and-conquer for Response-skewed Kernel Ridge
Regression
- arxiv url: http://arxiv.org/abs/2107.05834v1
- Date: Tue, 13 Jul 2021 04:01:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 14:53:45.081439
- Title: Oversampling Divide-and-conquer for Response-skewed Kernel Ridge
Regression
- Title(参考訳): 応答歪カーネルリッジ回帰のためのオーバーサンプリング除算器
- Authors: Jingyi Zhang and Xiaoxiao Sun
- Abstract要約: 本研究では,分割・分散手法の限界を克服するために,新しい応答適応分割戦略を開発する。
提案手法は, 従来のダックKRR推定値よりも小さい平均二乗誤差(AMSE)を有することを示す。
- 参考スコア(独自算出の注目度): 20.00435452480056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The divide-and-conquer method has been widely used for estimating large-scale
kernel ridge regression estimates. Unfortunately, when the response variable is
highly skewed, the divide-and-conquer kernel ridge regression (dacKRR) may
overlook the underrepresented region and result in unacceptable results. We
develop a novel response-adaptive partition strategy to overcome the
limitation. In particular, we propose to allocate the replicates of some
carefully identified informative observations to multiple nodes (local
processors). The idea is analogous to the popular oversampling technique.
Although such a technique has been widely used for addressing discrete label
skewness, extending it to the dacKRR setting is nontrivial. We provide both
theoretical and practical guidance on how to effectively over-sample the
observations under the dacKRR setting. Furthermore, we show the proposed
estimate has a smaller asymptotic mean squared error (AMSE) than that of the
classical dacKRR estimate under mild conditions. Our theoretical findings are
supported by both simulated and real-data analyses.
- Abstract(参考訳): 分割・対数法は大規模カーネルリッジ回帰推定に広く用いられている。
残念なことに、応答変数が非常に歪んだ場合、分割・分割カーネルリッジ回帰 (dackrr) は、未表示領域を見落とし、受け入れられない結果をもたらす可能性がある。
この制限を克服するために,新しい応答適応分割戦略を開発した。
特に,複数のノード(ローカルプロセッサ)に注意深く識別された情報観測の複製を割り当てる手法を提案する。
そのアイデアは一般的なオーバーサンプリング手法に似ています。
このようなテクニックは、離散ラベルの歪に対処するために広く用いられてきたが、dacKRR設定に拡張することは簡単ではない。
我々は,dacKRR設定下での観測を効果的にオーバーサンプリングする方法に関する理論的および実践的なガイダンスを提供する。
さらに,提案した推定値の漸近平均二乗誤差(AMSE)は,軽度条件下での古典的ダックKRR推定値よりも小さいことを示す。
我々の理論的な知見はシミュレーションと実データ解析の両方で裏付けられている。
関連論文リスト
- Robust Stochastic Optimization via Gradient Quantile Clipping [1.90365714903665]
グラディエントDescent(SGD)のための量子クリッピング戦略を導入する。
通常のクリッピングチェーンとして、グラデーション・ニュー・アウトリージを使用します。
本稿では,Huberiles を用いたアルゴリズムの実装を提案する。
論文 参考訳(メタデータ) (2023-09-29T15:24:48Z) - Kernel Ridge Regression Inference [7.066496204344619]
カーネルリッジ回帰のための均一な推論と信頼バンドを提供する。
我々は、KRRに対して、一般回帰器に対して、ほぼミニマックス速度で縮小するシャープで均一な信頼セットを構築する。
我々は,学校の課題におけるマッチング効果の新たなテストを構築するために,我々の手順を利用する。
論文 参考訳(メタデータ) (2023-02-13T18:26:36Z) - Rethinking Collaborative Metric Learning: Toward an Efficient
Alternative without Negative Sampling [156.7248383178991]
コラボレーティブ・メトリック・ラーニング(CML)パラダイムはレコメンデーション・システム(RS)分野に広く関心を集めている。
負のサンプリングが一般化誤差のバイアス付き推定に繋がることがわかった。
そこで我々は,SFCML (textitSampling-Free Collaborative Metric Learning) という名前のCMLに対して,負のサンプリングを伴わない効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-06-23T08:50:22Z) - Random Forest Weighted Local Fr\'echet Regression with Random Objects [52.25304029942005]
本稿では,新しいランダム森林重み付き局所Fr'echet回帰パラダイムを提案する。
最初の方法は,これらの重みを局所平均として利用し,条件付きFr'echet平均を解く。
第二の手法は局所線形Fr'echet回帰を行い、どちらも既存のFr'echet回帰法を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-10T09:10:59Z) - SreaMRAK a Streaming Multi-Resolution Adaptive Kernel Algorithm [60.61943386819384]
既存のKRRの実装では、すべてのデータがメインメモリに格納される必要がある。
KRRのストリーミング版であるStreaMRAKを提案する。
本稿では,2つの合成問題と2重振り子の軌道予測について紹介する。
論文 参考訳(メタデータ) (2021-08-23T21:03:09Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Uncertainty quantification for distributed regression [2.28438857884398]
平均推定器の不確かさを定量化する完全データ駆動手法を提案する。
すなわち、所定の決定論的予測セットに基づいて、平均推定器によって得られる予測に対して、同時的要素単位の信頼バンドを構築する。
また,本解析の副産物として,分割・分散型カーネルリッジ回帰に対するsup-norm整合性結果を得る。
論文 参考訳(メタデータ) (2021-05-24T17:33:19Z) - Unbiased Risk Estimators Can Mislead: A Case Study of Learning with
Complementary Labels [92.98756432746482]
我々は,補完ラベルを用いた学習という,弱教師付き問題を研究する。
勾配推定の品質はリスク最小化においてより重要であることを示す。
本稿では,ゼロバイアスと分散の低減を両立させる新しい補助的相補的損失(SCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-05T04:19:37Z) - Compressing Large Sample Data for Discriminant Analysis [78.12073412066698]
判別分析フレームワーク内での大きなサンプルサイズに起因する計算問題を考察する。
線形および二次判別分析のためのトレーニングサンプル数を削減するための新しい圧縮手法を提案する。
論文 参考訳(メタデータ) (2020-05-08T05:09:08Z) - Imputation for High-Dimensional Linear Regression [8.841513006680886]
LASSOは乱数設定において最小推定率を保持することを示す。
この設定では、共同根源は未成年のままである。
論文 参考訳(メタデータ) (2020-01-24T19:54:09Z) - Robust Gaussian Process Regression with a Bias Model [0.6850683267295248]
既存のほとんどのアプローチは、重い尾の分布から誘導される非ガウス的確率に、外れやすいガウス的確率を置き換えるものである。
提案手法は、未知の回帰関数の雑音および偏りの観測として、外れ値をモデル化する。
バイアス推定に基づいて、ロバストなGP回帰を標準のGP回帰問題に還元することができる。
論文 参考訳(メタデータ) (2020-01-14T06:21:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。