論文の概要: Convolutional Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2406.13155v1
- Date: Wed, 19 Jun 2024 02:09:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 23:38:44.230497
- Title: Convolutional Kolmogorov-Arnold Networks
- Title(参考訳): Convolutional Kolmogorov-Arnold Networks
- Authors: Alexander Dylan Bodner, Antonio Santiago Tepsich, Jack Natan Spolski, Santiago Pourteau,
- Abstract要約: 我々はConvolutional Kolmogorov-Arnold Networks (Convolutional Kans)を紹介する。
我々は、KAN(Kolmogorov-Arnold Networks)で提示される非線形活性化関数を畳み込みに統合し、新しい層を構築する。
我々は,MNIST と Fashion-MNIST ベンチマークを用いた従来のアーキテクチャに対して,Convolutional Kan の性能を実証的に検証した。
- 参考スコア(独自算出の注目度): 41.94295877935867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce the Convolutional Kolmogorov-Arnold Networks (Convolutional KANs), an innovative alternative to the standard Convolutional Neural Networks (CNNs) that have revolutionized the field of computer vision. We integrate the non-linear activation functions presented in Kolmogorov-Arnold Networks (KANs) into convolutions to build a new layer. Throughout the paper, we empirically validate the performance of Convolutional KANs against traditional architectures across MNIST and Fashion-MNIST benchmarks, illustrating that this new approach maintains a similar level of accuracy while using half the amount of parameters. This significant reduction of parameters opens up a new approach to advance the optimization of neural network architectures.
- Abstract(参考訳): 本稿では、コンピュータビジョンの分野に革命をもたらした標準畳み込みニューラルネットワーク(CNN)の革新的な代替品である、畳み込みコルモゴロフ・アルノルドネットワーク(畳み込みカン)を紹介する。
我々は、KAN(Kolmogorov-Arnold Networks)で提示される非線形活性化関数を畳み込みに統合し、新しい層を構築する。
本論文を通じて,MNIST と Fashion-MNIST ベンチマークを用いた従来のアーキテクチャに対する Convolutional Kans の性能評価を行った。
このパラメータの大幅な削減は、ニューラルネットワークアーキテクチャの最適化を進めるための新しいアプローチを開く。
関連論文リスト
- TKAN: Temporal Kolmogorov-Arnold Networks [0.0]
LSTM(Long Short-Term Memory)は、シーケンシャルデータにおける長期的な依存関係をキャプチャする能力を示している。
Kolmogorov-Arnold Networks (KANs) に触発されたマルチ層パーセプトロン(MLP)の代替案
我々はkanとLSTM、TKAN(Temporal Kolomogorov-Arnold Networks)にインスパイアされた新しいニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-05-12T17:40:48Z) - A Novel Convolutional Neural Network Architecture with a Continuous Symmetry [10.854440554663576]
本稿では、偏微分方程式(PDE)のクラスに着想を得た新しい畳み込みニューラルネットワーク(ConvNet)アーキテクチャを提案する。
画像分類タスクで同等の性能を持つので、連続した対称性の群を通して重みを修正できる。
論文 参考訳(メタデータ) (2023-08-03T08:50:48Z) - From NeurODEs to AutoencODEs: a mean-field control framework for
width-varying Neural Networks [68.8204255655161]
本稿では,動的に駆動する制御フィールドをベースとした,AutoencODEと呼ばれる新しいタイプの連続時間制御システムを提案する。
損失関数が局所凸な領域では,多くのアーキテクチャが復元可能であることを示す。
論文 参考訳(メタデータ) (2023-07-05T13:26:17Z) - Reparameterization through Spatial Gradient Scaling [69.27487006953852]
リパラメータ化は、学習中に畳み込み層を等価なマルチブランチ構造に変換することによって、ディープニューラルネットワークの一般化を改善することを目的としている。
本稿では,畳み込みネットワークにおける重み間の学習焦点を再分配する空間勾配スケーリング手法を提案する。
論文 参考訳(メタデータ) (2023-03-05T17:57:33Z) - Combining Neuro-Evolution of Augmenting Topologies with Convolutional
Neural Networks [0.0]
我々は、NEAT(NeuroEvolution of Augmenting Topologies)とCNN(Convolutional Neural Networks)を組み合わせて、Residual Networks(ResNets)ブロックを用いたシステムを提案する。
遺伝的アルゴリズムは、バックプロパゲーション毎のトレーニングよりもはるかに要求が高いため、我々の提案するシステムは、追加の最適化が実施されれば、どのように構築できるのかを説明します。
論文 参考訳(メタデータ) (2022-10-20T18:41:57Z) - BScNets: Block Simplicial Complex Neural Networks [79.81654213581977]
グラフ学習における最新の方向性として、SNN(Simplicial Neural Network)が最近登場した。
リンク予測のためのBlock Simplicial Complex Neural Networks (BScNets) モデルを提案する。
BScNetsは、コストを抑えながら最先端のモデルよりも大きなマージンを保っている。
論文 参考訳(メタデータ) (2021-12-13T17:35:54Z) - A Dimensionality Reduction Approach for Convolutional Neural Networks [0.0]
本稿では,上記の次元削減手法と入出力マッピングを組み合わせることで,事前学習ネットワークの層数を削減できる汎用手法を提案する。
本実験により, 従来の畳み込みニューラルネットワークと同様の精度を達成でき, メモリ割り当てを抑えることができることがわかった。
論文 参考訳(メタデータ) (2021-10-18T10:31:12Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。