論文の概要: A Compositional Kernel Model for Feature Learning
- arxiv url: http://arxiv.org/abs/2509.14158v1
- Date: Wed, 17 Sep 2025 16:40:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.921876
- Title: A Compositional Kernel Model for Feature Learning
- Title(参考訳): 特徴学習のための合成カーネルモデル
- Authors: Feng Ruan, Keli Liu, Michael Jordan,
- Abstract要約: 入力の座標ワイド再重み付けに予測器を適用したカーネルリッジ回帰の合成変種について検討する。
変数選択の観点から、ノイズ変数を除去しながら、関連する変数がどのように回復されるかを示す。
我々は,大域最小化器と定常点の両方が,ノイズ変数がガウス分布である場合にノイズ座標を破棄することを保証している。
- 参考スコア(独自算出の注目度): 3.229266122689601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study a compositional variant of kernel ridge regression in which the predictor is applied to a coordinate-wise reweighting of the inputs. Formulated as a variational problem, this model provides a simple testbed for feature learning in compositional architectures. From the perspective of variable selection, we show how relevant variables are recovered while noise variables are eliminated. We establish guarantees showing that both global minimizers and stationary points discard noise coordinates when the noise variables are Gaussian distributed. A central finding is that $\ell_1$-type kernels, such as the Laplace kernel, succeed in recovering features contributing to nonlinear effects at stationary points, whereas Gaussian kernels recover only linear ones.
- Abstract(参考訳): 入力の座標ワイド再重み付けに予測器を適用したカーネルリッジ回帰の合成変種について検討する。
変分問題として定式化されたこのモデルは、構成アーキテクチャにおける特徴学習のためのシンプルなテストベッドを提供する。
変数選択の観点から、ノイズ変数を除去しながら、関連する変数がどのように回復されるかを示す。
我々は,大域最小化器と定常点の両方が,ノイズ変数がガウス分布である場合にノイズ座標を破棄することを保証している。
中心的な発見は、Laplaceカーネルのような$\ell_1$-typeカーネルが定常点における非線形効果に寄与する機能の回復に成功したことである。
関連論文リスト
- Benign Overfitting and the Geometry of the Ridge Regression Solution in Binary Classification [75.01389991485098]
リッジ回帰はクラスタ平均ベクトルのスケールによって定性的に異なる挙動を示す。
スケールが非常に大きいレジームでは、良心過剰を許容する条件は回帰タスクと同一であることが判明した。
論文 参考訳(メタデータ) (2025-03-11T01:45:42Z) - On the kernel learning problem [4.917649865600782]
カーネルリッジ回帰問題は、入力データである$Xin mathbbRd$の関数として出力$Y$に最適なものを見つけることを目的としている。
我々は、余剰行列パラメータ$U$を導入することにより、カーネルリッジ回帰問題の一般化を考える。
これは自然に$U$の選択を最適化する非線形変分問題につながる。
論文 参考訳(メタデータ) (2025-02-17T10:54:01Z) - Wiener Chaos in Kernel Regression: Towards Untangling Aleatoric and Epistemic Uncertainty [0.0]
我々はこの設定を一般化し、加法的、すなわち非ガウス計測ノイズによるカーネルリッジ回帰を考える。
GP後部分布に符号化された全不確実性から,データサンプルのノイズから生じる不確かさを識別できることを示す。
論文 参考訳(メタデータ) (2023-12-12T16:02:35Z) - Learning Curves for Noisy Heterogeneous Feature-Subsampled Ridge
Ensembles [34.32021888691789]
雑音の多い最小二乗尾根アンサンブルにおける特徴バッグングの理論を開発する。
サブサンプリングは線形予測器の2Dピークをシフトすることを示した。
特徴サブサンプリングアンサンブルの性能を1つの線形予測器と比較する。
論文 参考訳(メタデータ) (2023-07-06T17:56:06Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Neural Fields as Learnable Kernels for 3D Reconstruction [101.54431372685018]
本稿では,学習したカーネルリッジの回帰に基づいて,暗黙の3次元形状を再構成する手法を提案する。
本手法は,3次元オブジェクトと大画面をスパース指向の点から再構成する際の最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-11-26T18:59:04Z) - Kernel Continual Learning [117.79080100313722]
カーネル連続学習は、破滅的な忘れ事に取り組むための、シンプルだが効果的な連続学習の変種である。
エピソードメモリユニットは、カーネルリッジ回帰に基づいてタスク固有の分類器を学ぶために、各タスクのサンプルのサブセットを格納する。
タスク毎にデータ駆動カーネルを学ぶための変動ランダム機能。
論文 参考訳(メタデータ) (2021-07-12T22:09:30Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Deterministic error bounds for kernel-based learning techniques under
bounded noise [0.0]
本稿では,有限個のノイズ崩壊サンプルから関数を再構成する問題を考察する。
2つのカーネルアルゴリズム、すなわちカーネルリッジ回帰と$varepsilon$- Support vector regressionを解析する。
論文 参考訳(メタデータ) (2020-08-10T10:16:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。