論文の概要: Convolutional Spectral Kernel Learning
- arxiv url: http://arxiv.org/abs/2002.12744v1
- Date: Fri, 28 Feb 2020 14:35:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 01:38:34.760086
- Title: Convolutional Spectral Kernel Learning
- Title(参考訳): 畳み込みスペクトル核学習
- Authors: Jian Li, Yong Liu, Weiping Wang
- Abstract要約: 逆フーリエ変換に基づく解釈可能な畳み込みスペクトルカーネルネットワーク(textttCSKN)を構築する。
一般化誤差境界を導出し、性能を改善するために2つの正規化器を導入する。
実世界のデータセットを用いた実験は、学習フレームワークの有効性を検証する。
- 参考スコア(独自算出の注目度): 21.595130250234646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, non-stationary spectral kernels have drawn much attention, owing to
its powerful feature representation ability in revealing long-range
correlations and input-dependent characteristics. However, non-stationary
spectral kernels are still shallow models, thus they are deficient to learn
both hierarchical features and local interdependence. In this paper, to obtain
hierarchical and local knowledge, we build an interpretable convolutional
spectral kernel network (\texttt{CSKN}) based on the inverse Fourier transform,
where we introduce deep architectures and convolutional filters into
non-stationary spectral kernel representations. Moreover, based on Rademacher
complexity, we derive the generalization error bounds and introduce two
regularizers to improve the performance. Combining the regularizers and recent
advancements on random initialization, we finally complete the learning
framework of \texttt{CSKN}. Extensive experiments results on real-world
datasets validate the effectiveness of the learning framework and coincide with
our theoretical findings.
- Abstract(参考訳): 近年、長距離相関と入力依存特性を明らかにする強力な特徴表現能力により、非定常スペクトルカーネルが注目されている。
しかし、非定常スペクトル核はまだ浅いモデルであるため、階層的特徴と局所的相互依存の両方を学ぶことができない。
本稿では、階層的および局所的な知識を得るために、逆フーリエ変換に基づく解釈可能な畳み込みスペクトルカーネルネットワーク(\texttt{CSKN})を構築し、深層構造と畳み込みフィルタを非定常スペクトルカーネル表現に導入する。
さらに,Rademacherの複雑性に基づいて一般化誤差境界を導出し,性能向上のために2つの正規化器を導入する。
正規化器と最近のランダム初期化の進歩を組み合わせることで, 最終的に \texttt{CSKN} の学習フレームワークを完成させる。
実世界のデータセットを用いた実験により,学習フレームワークの有効性が検証され,理論的な結果と一致した。
関連論文リスト
- Point-Calibrated Spectral Neural Operators [54.13671100638092]
点レベル適応スペクトルベースで関数を近似することで演算子マッピングを学習する。
点平衡スペクトル演算子は点レベル適応スペクトルベースで関数を近似することで演算子マッピングを学習する。
論文 参考訳(メタデータ) (2024-10-15T08:19:39Z) - HoloNets: Spectral Convolutions do extend to Directed Graphs [59.851175771106625]
従来の知恵は、スペクトル畳み込みネットワークは無向グラフ上にしか展開できないと規定している。
ここでは、このグラフフーリエ変換への伝統的な依存が超フルであることを示す。
本稿では,新たに開発されたフィルタの周波数応答解釈を行い,フィルタ表現に使用するベースの影響を調査し,ネットワークを基盤とする特性演算子との相互作用について議論する。
論文 参考訳(メタデータ) (2023-10-03T17:42:09Z) - Mechanism of feature learning in convolutional neural networks [14.612673151889615]
我々は、畳み込みニューラルネットワークが画像データからどのように学習するかのメカニズムを特定する。
我々は,フィルタの共分散とパッチベースAGOPの相関関係の同定を含む,アンザッツの実証的証拠を提示する。
次に、パッチベースのAGOPを用いて、畳み込みカーネルマシンの深い特徴学習を可能にすることにより、結果の汎用性を実証する。
論文 参考訳(メタデータ) (2023-09-01T16:30:02Z) - Learning Neural Eigenfunctions for Unsupervised Semantic Segmentation [12.91586050451152]
スペクトルクラスタリング(英: Spectral clustering)は、異なるクラスタを構築するために画素のスペクトル埋め込みを計算する理論上の解である。
現在のアプローチは、まだスペクトル分解の非効率性と、試験データに適用する際の柔軟性に悩まされている。
この研究は、スペクトルクラスタリングをニューラルネットワークに基づく固有関数を用いてスペクトル埋め込みを生成するパラメトリックアプローチとしてキャストすることで、これらの問題に対処する。
実際には、神経固有関数は軽量であり、事前訓練されたモデルの特徴を入力とし、トレーニング効率を改善し、より密集した予測のための事前訓練されたモデルの可能性を解き放つ。
論文 参考訳(メタデータ) (2023-04-06T03:14:15Z) - Spectral Regularization Allows Data-frugal Learning over Combinatorial
Spaces [13.36217184117654]
機械学習モデルのスペクトル表現の規則化は、ラベル付きデータが乏しい場合に一般化能力を向上させることを示す。
正規化損失の勾配降下は、いくつかのデータ共有現実問題におけるベースラインアルゴリズムと比較して、より優れた一般化性能をもたらす。
論文 参考訳(メタデータ) (2022-10-05T23:31:54Z) - Spectral Decomposition Representation for Reinforcement Learning [100.0424588013549]
本稿では, スペクトル分解表現法(SPEDER)を提案する。この手法は, データ収集ポリシーに急激な依存を生じさせることなく, ダイナミックスから状態-作用の抽象化を抽出する。
理論的解析により、オンライン設定とオフライン設定の両方において提案アルゴリズムのサンプル効率が確立される。
実験により、いくつかのベンチマークで現在の最先端アルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-19T19:01:30Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Spectral Complexity-scaled Generalization Bound of Complex-valued Neural
Networks [78.64167379726163]
本論文は,複素数値ニューラルネットワークの一般化を証明した最初の論文である。
複雑な値の畳み込みニューラルネットワークを異なるデータセット上でトレーニングして実験を行う。
論文 参考訳(メタデータ) (2021-12-07T03:25:25Z) - Functional Regularization for Reinforcement Learning via Learned Fourier
Features [98.90474131452588]
本稿では、入力を学習されたフーリエベースに埋め込むことにより、深層強化学習のための簡単なアーキテクチャを提案する。
その結果、状態ベースと画像ベースの両方のRLのサンプル効率が向上することがわかった。
論文 参考訳(メタデータ) (2021-12-06T18:59:52Z) - Learning with convolution and pooling operations in kernel methods [8.528384027684192]
近年の実証研究により、階層的畳み込みカーネルは、画像分類タスクにおけるカーネルメソッドの性能を向上させることが示されている。
畳み込みアーキテクチャにおける近似と一般化の正確な相互作用について検討する。
この結果から,対象関数に適応したアーキテクチャの選択が,サンプルの複雑性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2021-11-16T09:00:44Z) - Deep Fourier Kernel for Self-Attentive Point Processes [16.63706478353667]
本稿では、複雑な非線形時間依存構造を捉えるために、離散イベントデータに対する注目に基づく新しいモデルを提案する。
本稿では,ニューラルネットワークを用いてスペクトルを表現したFourierカーネル埋め込みを用いた新しいスコア関数を提案する。
我々は、我々のアプローチの理論的特性を確立し、我々のアプローチの競争性能を、合成および実データのための最先端技術と比較して実証する。
論文 参考訳(メタデータ) (2020-02-17T22:25:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。