論文の概要: Interpolation with the polynomial kernels
- arxiv url: http://arxiv.org/abs/2212.07658v1
- Date: Thu, 15 Dec 2022 08:30:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 18:12:02.116244
- Title: Interpolation with the polynomial kernels
- Title(参考訳): 多項式核との補間
- Authors: Giacomo Elefante and Wolfgang Erb and Francesco Marchetti and Emma
Perracchione and Davide Poggiali and Gabriele Santin
- Abstract要約: カーネルは機械学習で広く使われており、カーネルベースの回帰モデルを開発するためのデフォルトの選択肢の1つである。
厳密な正定性がないため、数値解析ではほとんど使われない。
本論文は,これらのカーネルとその関連アルゴリズムの研究において,いくつかの初期結果を確立することを目的としている。
- 参考スコア(独自算出の注目度): 5.8720142291102135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The polynomial kernels are widely used in machine learning and they are one
of the default choices to develop kernel-based classification and regression
models. However, they are rarely used and considered in numerical analysis due
to their lack of strict positive definiteness. In particular they do not enjoy
the usual property of unisolvency for arbitrary point sets, which is one of the
key properties used to build kernel-based interpolation methods. This paper is
devoted to establish some initial results for the study of these kernels, and
their related interpolation algorithms, in the context of approximation theory.
We will first prove necessary and sufficient conditions on point sets which
guarantee the existence and uniqueness of an interpolant. We will then study
the Reproducing Kernel Hilbert Spaces (or native spaces) of these kernels and
their norms, and provide inclusion relations between spaces corresponding to
different kernel parameters. With these spaces at hand, it will be further
possible to derive generic error estimates which apply to sufficiently smooth
functions, thus escaping the native space. Finally, we will show how to employ
an efficient stable algorithm to these kernels to obtain accurate interpolants,
and we will test them in some numerical experiment. After this analysis several
computational and theoretical aspects remain open, and we will outline possible
further research directions in a concluding section. This work builds some
bridges between kernel and polynomial interpolation, two topics to which the
authors, to different extents, have been introduced under the supervision or
through the work of Stefano De Marchi. For this reason, they wish to dedicate
this work to him in the occasion of his 60th birthday.
- Abstract(参考訳): 多項式カーネルは機械学習で広く使われており、カーネルベースの分類と回帰モデルを開発するためのデフォルトの選択肢の1つである。
しかし、厳密な正定性がないため、数値解析ではほとんど使われない。
特に、カーネルベースの補間法を構築するのに使用される重要な性質の1つである任意の点集合に対して、通常の解法的性質を享受しない。
本稿では、近似理論の文脈において、これらのカーネルおよびそれらの関連する補間アルゴリズムの研究のためのいくつかの初期結果を確立することを目的としている。
まず、補間体の存在と一意性を保証する点集合上の必要十分条件を証明する。
次に、これらのカーネルとそのノルムの再生核ヒルベルト空間(あるいはネイティブ空間)を研究し、異なるカーネルパラメータに対応する空間間の包含関係を提供する。
これらの空間が手元にあることで、十分に滑らかな函数に適用できる一般的な誤差推定を導出し、ネイティブ空間を逃れることが可能になる。
最後に、これらのカーネルに効率的な安定アルゴリズムを適用して正確な補間を得る方法を示し、いくつかの数値実験でそれらをテストする。
この分析の後、いくつかの計算的・理論的側面が未解決のままであり、結論節でさらなる研究の方向性を概説する。
この研究は、カーネルと多項式の補間の間にいくつかのブリッジを構築しており、著者が監督下またはステファノ・デ・マルティーニの業績を通じて異なる程度に導入されている2つのトピックである。
そのため、60歳の誕生日にこの作品を献上したいと願っている。
関連論文リスト
- Optimal Kernel Choice for Score Function-based Causal Discovery [92.65034439889872]
本稿では,データに最も適合する最適なカーネルを自動的に選択する,一般化スコア関数内のカーネル選択手法を提案する。
合成データと実世界のベンチマークの両方で実験を行い,提案手法がカーネル選択法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-14T09:32:20Z) - On the Approximation of Kernel functions [0.0]
論文はカーネル自体の近似に対処する。
単位立方体上のヒルベルト・ガウス核に対して、この論文は関連する固有関数の上界を確立する。
この改良により、Nystr"om法のような低階近似法が確かめられる。
論文 参考訳(メタデータ) (2024-03-11T13:50:07Z) - Approximation by non-symmetric networks for cross-domain learning [0.0]
非対称カーネルを用いたカーネルネットワークの近似能力について検討する。
我々は、$r$が必ずしも整数ではない場合、ReLU$r$ネットワークにより、$L2$)-Sobolevクラスの関数の均一近似の精度の推定値を得る。
論文 参考訳(メタデータ) (2023-05-06T01:33:26Z) - Kernelized Cumulants: Beyond Kernel Mean Embeddings [11.448622437140022]
我々は、テンソル代数のツールを用いて、累積をカーネルヒルベルト空間(RKHS)に拡張する。
我々は、次数1を超えることはいくつかの利点があり、同じ計算複雑性と最小限のオーバーヘッドで達成できると主張している。
論文 参考訳(メタデータ) (2023-01-29T15:31:06Z) - Reconstructing Kernel-based Machine Learning Force Fields with
Super-linear Convergence [0.18416014644193063]
我々は、プレコンディショナーを構築するためのNystr"om-typeメソッドの幅広いクラスについて考察する。
検討されたすべての方法は、支配的なカーネルスペクトルを近似するために、インジェクション(カーネル)列の代表的なサブセットを特定することを目的としている。
論文 参考訳(メタデータ) (2022-12-24T13:45:50Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Fast Sketching of Polynomial Kernels of Polynomial Degree [61.83993156683605]
他のカーネルはしばしばテイラー級数展開を通じてカーネルによって近似されるので、カーネルは特に重要である。
スケッチの最近の技術は、カーネルの$q$という難解な程度に実行時間に依存することを減らしている。
我々は、この実行時間を大幅に改善する新しいスケッチを、先頭の注文項で$q$への依存を取り除くことで提供します。
論文 参考訳(メタデータ) (2021-08-21T02:14:55Z) - Taming Nonconvexity in Kernel Feature Selection---Favorable Properties
of the Laplace Kernel [77.73399781313893]
カーネルベースの特徴選択の客観的機能を確立することが課題である。
非言語最適化に利用可能な勾配に基づくアルゴリズムは、局所ミニマへの収束を保証できるだけである。
論文 参考訳(メタデータ) (2021-06-17T11:05:48Z) - Kernel Identification Through Transformers [54.3795894579111]
カーネル選択はガウス過程(GP)モデルの性能決定において中心的な役割を果たす。
この研究は、高次元GP回帰モデルのためのカスタムカーネル関数を構築するという課題に対処する。
KITT: Kernel Identification through Transformersを提案する。
論文 参考訳(メタデータ) (2021-06-15T14:32:38Z) - Generalized vec trick for fast learning of pairwise kernel models [3.867363075280544]
本稿では、オブジェクト間の関係に関する事前知識を組み込むために提案されている、ペアワイズカーネルの包括的なレビューを紹介する。
レビューされたすべてのカーネルがKronecker製品の和として表現できることを示し、一般化されたvecトリックを使用して計算を高速化する。
論文 参考訳(メタデータ) (2020-09-02T13:27:51Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。