論文の概要: Properties of the After Kernel
- arxiv url: http://arxiv.org/abs/2105.10585v1
- Date: Fri, 21 May 2021 21:50:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 11:57:04.905524
- Title: Properties of the After Kernel
- Title(参考訳): afterカーネルの特性
- Authors: Philip M. Long
- Abstract要約: ニューラル・タンジェント・カーネル(英: Neural Tangent Kernel、NTK)は、ニューラルネットワークを用いて定義されたカーネルの広いネットワーク限界である。
我々は、標準的なアーキテクチャを持つニューラルネットワークに対して、トレーニング後を除いて同じ埋め込みを用いて定義される「アフターカーネル」について研究する。
- 参考スコア(独自算出の注目度): 11.4219428942199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Neural Tangent Kernel (NTK) is the wide-network limit of a kernel defined
using neural networks at initialization, whose embedding is the gradient of the
output of the network with respect to its parameters. We study the "after
kernel", which is defined using the same embedding, except after training, for
neural networks with standard architectures, on binary classification problems
extracted from MNIST and CIFAR-10, trained using SGD in a standard way. Lyu and
Li described a sense in which neural networks, under certain conditions, are
equivalent to SVM with the after kernel. Our experiments are consistent with
this proposition under natural conditions. For networks with an architecure
similar to VGG, the after kernel is more "global", in the sense that it is less
invariant to transformations of input images that disrupt the global structure
of the image while leaving the local statistics largely intact. For fully
connected networks, the after kernel is less global in this sense. The after
kernel tends to be more invariant to small shifts, rotations and zooms; data
augmentation does not improve these invariances. The (finite approximation to
the) conjugate kernel, obtained using the last layer of hidden nodes,
sometimes, but not always, provides a good approximation to the NTK and the
after kernel.
- Abstract(参考訳): ニューラル・タンジェント・カーネル(英: Neural Tangent Kernel、NTK)は、ニューラルネットワークを初期化時に定義したカーネルの広帯域限界であり、その埋め込みはそのパラメータに対するネットワークの出力の勾配である。
我々は,MNIST と CIFAR-10 から抽出した二項分類問題に対して,トレーニング後を除き,同じ埋め込みを用いて定義する「アフターカーネル」について,標準的な方法でSGD を用いて訓練した。
LyuとLiは、ニューラルネットワークが特定の条件下で、後続のカーネルを持つSVMと等価であるという感覚を説明した。
我々の実験は自然条件下でのこの提案と一致している。
VGGに類似したアーカイトキュアを持つネットワークでは、後続のカーネルはより「グローバル」であり、局所的な統計を残しながら画像のグローバルな構造を乱す入力画像の変換に不変ではない。
完全接続ネットワークの場合、afterカーネルはこの意味ではグローバルではない。
後続のカーネルは、小さなシフト、回転、ズームに対してより不変であり、データの増大はこれらの不変性を改善しない。
隠れノードの最後の層を用いて得られる(有限近似)共役カーネルは、NTKと後続カーネルに良い近似を与えることがあるが、常にではない。
関連論文リスト
- Novel Kernel Models and Exact Representor Theory for Neural Networks Beyond the Over-Parameterized Regime [52.00917519626559]
本稿では、ニューラルネットワークの2つのモデルと、任意の幅、深さ、トポロジーのニューラルネットワークに適用可能なトレーニングについて述べる。
また、局所外在性神経核(LeNK)の観点から、非正規化勾配降下を伴う階層型ニューラルネットワークトレーニングのための正確な表現子理論を提示する。
この表現論は、ニューラルネットワークトレーニングにおける高次統計学の役割と、ニューラルネットワークのカーネルモデルにおけるカーネル進化の影響について洞察を与える。
論文 参考訳(メタデータ) (2024-05-24T06:30:36Z) - On the Eigenvalue Decay Rates of a Class of Neural-Network Related
Kernel Functions Defined on General Domains [10.360517127652185]
一般領域上で定義されたカーネル関数の大きなクラスの固有値減衰率(EDR)を決定するための戦略を提供する。
この種類のカーネル関数は含まれているが、異なる深さと様々なアクティベーション関数を持つニューラルネットワークに付随する神経タンジェントカーネルに限らない。
論文 参考訳(メタデータ) (2023-05-04T08:54:40Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Incorporating Prior Knowledge into Neural Networks through an Implicit
Composite Kernel [1.6383321867266318]
Implicit Composite Kernel (ICK) は、ニューラルネットワークによって暗黙的に定義されたカーネルと、既知のプロパティをモデル化するために選択された第2のカーネル関数を組み合わせたカーネルである。
合成データセットと実世界のデータセットの両方において、ICKの優れた性能と柔軟性を実証する。
論文 参考訳(メタデータ) (2022-05-15T21:32:44Z) - Neural Networks as Kernel Learners: The Silent Alignment Effect [86.44610122423994]
遅延トレーニング体制におけるニューラルネットワークは、カーネルマシンに収束する。
これは、サイレントアライメント(サイレントアライメント)という現象のためである。
また、非白データは無声アライメント効果を弱めることを示した。
論文 参考訳(メタデータ) (2021-10-29T18:22:46Z) - Scaling Neural Tangent Kernels via Sketching and Random Features [53.57615759435126]
最近の研究報告では、NTKレグレッションは、小規模データセットでトレーニングされた有限範囲のニューラルネットワークより優れている。
我々は、アークコサインカーネルの拡張をスケッチして、NTKの近距離入力スパーシティ時間近似アルゴリズムを設計する。
CNTKの特徴をトレーニングした線形回帰器が,CIFAR-10データセット上での正確なCNTKの精度と150倍の高速化を実現していることを示す。
論文 参考訳(メタデータ) (2021-06-15T04:44:52Z) - Kernelized Classification in Deep Networks [49.47339560731506]
本稿では,ディープネットワークのためのカーネル分類層を提案する。
訓練中のSoftmaxクロスエントロピー損失関数のカーネルトリックを用いて非線形分類層を提唱する。
提案する非線形分類層は,複数のデータセットやタスクに対して有用であることを示す。
論文 参考訳(メタデータ) (2020-12-08T21:43:19Z) - Finite Versus Infinite Neural Networks: an Empirical Study [69.07049353209463]
カーネルメソッドは、完全に接続された有限幅ネットワークより優れている。
中心とアンサンブルの有限ネットワークは後続のばらつきを減らした。
重みの減衰と大きな学習率の使用は、有限ネットワークと無限ネットワークの対応を破る。
論文 参考訳(メタデータ) (2020-07-31T01:57:47Z) - Neural Kernels Without Tangents [34.527798084824575]
特徴の袋から「合成」カーネルを作成するための代数学について述べる。
これらの操作は, ニューラルタンジェントカーネル (NTK) の構成要素の多くに対応していることを示す。
論文 参考訳(メタデータ) (2020-03-04T18:25:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。