論文の概要: Response to Promises and Pitfalls of Deep Kernel Learning
- arxiv url: http://arxiv.org/abs/2509.21228v1
- Date: Thu, 25 Sep 2025 14:31:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.982363
- Title: Response to Promises and Pitfalls of Deep Kernel Learning
- Title(参考訳): 深層カーネル学習の約束と落とし穴に対する反応
- Authors: Andrew Gordon Wilson, Zhiting Hu, Ruslan Salakhutdinov, Eric P. Xing,
- Abstract要約: このノートは「深層カーネル学習の約束と落とし穴」(Ober et al., 2021)に反応する。
ガウス過程の限界確率は、データ適合項と複雑性ペナルティに分解できる。
- 参考スコア(独自算出の注目度): 117.04303786609508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This note responds to "Promises and Pitfalls of Deep Kernel Learning" (Ober et al., 2021). The marginal likelihood of a Gaussian process can be compartmentalized into a data fit term and a complexity penalty. Ober et al. (2021) shows that if a kernel can be multiplied by a signal variance coefficient, then reparametrizing and substituting in the maximized value of this parameter sets a reparametrized data fit term to a fixed value. They use this finding to argue that the complexity penalty, a log determinant of the kernel matrix, then dominates in determining the other values of kernel hyperparameters, which can lead to data overcorrelation. By contrast, we show that the reparametrization in fact introduces another data-fit term which influences all other kernel hyperparameters. Thus, a balance between data fit and complexity still plays a significant role in determining kernel hyperparameters.
- Abstract(参考訳): このノートは"Promises and Pitfalls of Deep Kernel Learning" (Ober et al , 2021)に答えている。
ガウス過程の限界確率は、データ適合項と複雑性ペナルティに分解できる。
Ober et al (2021) は、もしカーネルが信号分散係数で乗算できるなら、このパラメータの最大値の再パラメータ化と置換は、再パラメータ化されたデータ項を固定値に設定することを示している。
彼らはこの発見を用いて、複雑性のペナルティ(カーネル行列のログ決定式)がカーネルハイパーパラメータの他の値を決定する上で支配的であり、データオーバーコリレーションにつながると論じている。
対照的に、再パラメータ化では、他のすべてのカーネルハイパーパラメータに影響を与える別のデータ適合項が導入された。
このように、データの適合性と複雑性のバランスは、カーネルのハイパーパラメータを決定する上でも重要な役割を果たす。
関連論文リスト
- Generalization Bound of Gradient Flow through Training Trajectory and Data-dependent Kernel [55.82768375605861]
我々は、カーネル法における古典的ラデマッハ複雑性と整合する勾配流の一般化を確立する。
NTKのような静的カーネルとは異なり、LPKはトレーニング軌跡全体をキャプチャし、データと最適化の両方に適応する。
論文 参考訳(メタデータ) (2025-06-12T23:17:09Z) - Highly Adaptive Ridge [84.38107748875144]
直交可積分な部分微分を持つ右連続函数のクラスにおいて,$n-2/3$自由次元L2収束率を達成する回帰法を提案する。
Harは、飽和ゼロオーダーテンソル積スプライン基底展開に基づいて、特定のデータ適応型カーネルで正確にカーネルリッジレグレッションを行う。
我々は、特に小さなデータセットに対する最先端アルゴリズムよりも経験的性能が優れていることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:06:06Z) - Optimal Kernel Choice for Score Function-based Causal Discovery [92.65034439889872]
本稿では,データに最も適合する最適なカーネルを自動的に選択する,一般化スコア関数内のカーネル選択手法を提案する。
合成データと実世界のベンチマークの両方で実験を行い,提案手法がカーネル選択法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-14T09:32:20Z) - Gaussian Process Regression under Computational and Epistemic Misspecification [4.5656369638728656]
大規模データアプリケーションでは、カーネルの低ランクあるいはスパース近似を用いて計算コストを削減できる。
本稿では,そのようなカーネル近似が要素誤差に与える影響について検討する。
論文 参考訳(メタデータ) (2023-12-14T18:53:32Z) - On the Size and Approximation Error of Distilled Sets [57.61696480305911]
カーネル・インジェクション・ポイント(Kernel Inducing Points)などのデータセット蒸留のカーネル・リッジ回帰に基づく手法について理論的に考察する。
我々は、RFF空間におけるその解が元のデータの解と一致するように、元の入力空間に小さな一組のインスタンスが存在することを証明した。
KRR溶液は、全入力データに最適化されたKRR溶液に対して近似を与えるこの蒸留されたインスタンスセットを用いて生成することができる。
論文 参考訳(メタデータ) (2023-05-23T14:37:43Z) - Reconstructing Kernel-based Machine Learning Force Fields with
Super-linear Convergence [0.18416014644193063]
我々は、プレコンディショナーを構築するためのNystr"om-typeメソッドの幅広いクラスについて考察する。
検討されたすべての方法は、支配的なカーネルスペクトルを近似するために、インジェクション(カーネル)列の代表的なサブセットを特定することを目的としている。
論文 参考訳(メタデータ) (2022-12-24T13:45:50Z) - Optimal Rates of Distributed Regression with Imperfect Kernels [0.0]
本研究では,分散カーネルの分散化について,分割法と分割法を用いて検討する。
ノイズフリー環境では,カーネルリッジ回帰がN-1$よりも高速に実現できることを示す。
論文 参考訳(メタデータ) (2020-06-30T13:00:16Z) - The Statistical Cost of Robust Kernel Hyperparameter Tuning [20.42751031392928]
対向雑音下での能動回帰の設定におけるカーネルハイパーパラメータチューニングの統計的複雑さについて検討した。
カーネルクラスの複雑性の増大がカーネルハイパーパラメータの学習の複雑さを増大させるのを特徴付け、この問題に対する有限サンプル保証を提供する。
論文 参考訳(メタデータ) (2020-06-14T21:56:33Z) - Improved guarantees and a multiple-descent curve for Column Subset
Selection and the Nystr\"om method [76.73096213472897]
我々は,データ行列のスペクトル特性を利用して近似保証を改良する手法を開発した。
我々のアプローチは、特異値減衰の既知の速度を持つデータセットのバウンダリが大幅に向上する。
RBFパラメータを変更すれば,改良された境界線と多重発振曲線の両方を実データセット上で観測できることが示される。
論文 参考訳(メタデータ) (2020-02-21T00:43:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。