論文の概要: Large Scale Tensor Regression using Kernels and Variational Inference
- arxiv url: http://arxiv.org/abs/2002.04704v1
- Date: Tue, 11 Feb 2020 21:46:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 02:05:22.688385
- Title: Large Scale Tensor Regression using Kernels and Variational Inference
- Title(参考訳): カーネルと変分推論を用いた大規模テンソル回帰
- Authors: Robert Hu, Geoff K. Nicholls, Dino Sejdinovic
- Abstract要約: 提案手法は,KFT (textitKernel Fried) を合成し,高次元データを対象とした大規模予測ツールとして提案する。
この結果から,textitLightM と textitField Aware Factorization Machines (FFM) に対して優れた性能を示した。
KFTは、定数やガウス雑音の点で不定形側情報に対して頑健であることが実証的に示されている。
- 参考スコア(独自算出の注目度): 9.106412307976067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We outline an inherent weakness of tensor factorization models when latent
factors are expressed as a function of side information and propose a novel
method to mitigate this weakness. We coin our method \textit{Kernel Fried
Tensor}(KFT) and present it as a large scale forecasting tool for high
dimensional data. Our results show superior performance against
\textit{LightGBM} and \textit{Field Aware Factorization Machines}(FFM), two
algorithms with proven track records widely used in industrial forecasting. We
also develop a variational inference framework for KFT and associate our
forecasts with calibrated uncertainty estimates on three large scale datasets.
Furthermore, KFT is empirically shown to be robust against uninformative side
information in terms of constants and Gaussian noise.
- Abstract(参考訳): 潜在因子がサイド情報の関数として表される場合のテンソル因子化モデルの固有弱を概説し、この弱さを緩和する新しい方法を提案する。
提案手法は,高次元データを対象とした大規模予測ツールであるtextit{Kernel Fried Tensor}(KFT) を作成した。
以上の結果から,産業予測に広く用いられている実績のある2つのアルゴリズムである, <textit{LightGBM} と \textit{Field Aware Factorization Machines}(FFM) に対して優れた性能を示した。
また、KFTのための変分推論フレームワークを開発し、3つの大規模データセットのキャリブレーションされた不確実性推定と予測を関連付ける。
さらに、KFTは定数やガウス雑音の観点から不定形側情報に対して頑健であることが実証的に示されている。
関連論文リスト
- The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Beyond mirkwood: Enhancing SED Modeling with Conformal Predictions [0.0]
SEDフィッティングにおける柔軟性と不確実性を向上する,高度な機械学習ベースのアプローチを提案する。
我々は、整合化量子レグレッションを組み込んで、点予測をエラーバーに変換し、解釈可能性と信頼性を向上させる。
論文 参考訳(メタデータ) (2023-12-21T11:27:20Z) - Pre-training via Denoising for Molecular Property Prediction [53.409242538744444]
本稿では,3次元分子構造の大規模データセットを平衡に利用した事前学習手法について述べる。
近年のノイズレギュラー化の進展に触発されて, 事前学習の目的は, 雑音の除去に基づくものである。
論文 参考訳(メタデータ) (2022-05-31T22:28:34Z) - Learning to Predict Graphs with Fused Gromov-Wasserstein Barycenters [2.169919643934826]
我々はこの問題をFGW損失(Fused Gromov-Wasserstein)を用いて回帰式として定式化する。
本稿では,重みが入力に依存するFGWバリセンタに依存する予測モデルを提案する。
論文 参考訳(メタデータ) (2022-02-08T12:15:39Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - $\beta$-Cores: Robust Large-Scale Bayesian Data Summarization in the
Presence of Outliers [14.918826474979587]
古典的ベイズ推定の質は、観測結果が推定データ生成モデルに適合するかどうかに大きく依存する。
本稿では,大容量データセットに同時スケール可能な変分推論手法を提案する。
多様なシミュレーションおよび実データ、および様々な統計モデルにおいて、我々のアプローチの適用性について説明する。
論文 参考訳(メタデータ) (2020-08-31T13:47:12Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Provable tradeoffs in adversarially robust classification [96.48180210364893]
我々は、ロバストなイソペリメトリに関する確率論の最近のブレークスルーを含む、新しいツールを開発し、活用する。
この結果から,データの不均衡時に増加する標準精度とロバスト精度の基本的なトレードオフが明らかになった。
論文 参考訳(メタデータ) (2020-06-09T09:58:19Z) - On the Role of Dataset Quality and Heterogeneity in Model Confidence [27.657631193015252]
安全クリティカルなアプリケーションは、正確で校正された確率を出力する機械学習モデルを必要とする。
未分類のディープネットワークは、過度に信頼された予測をすることが知られている。
本研究では,データセットサイズとラベルノイズがモデルの信頼性に与える影響について検討した。
論文 参考訳(メタデータ) (2020-02-23T05:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。