論文の概要: Convolutional Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2406.13155v2
- Date: Mon, 04 Nov 2024 00:55:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 17:07:33.859152
- Title: Convolutional Kolmogorov-Arnold Networks
- Title(参考訳): Convolutional Kolmogorov-Arnold Networks
- Authors: Alexander Dylan Bodner, Antonio Santiago Tepsich, Jack Natan Spolski, Santiago Pourteau,
- Abstract要約: 我々はConvolutional Kolmogorov-Arnold Networks (Convolutional Kans)を紹介する。
本稿では,Fashion-MNISTデータセットにまたがる従来のアーキテクチャに対して,Convolutional Kansの性能を実証的に検証する。
実験の結果、Kan Convolutionsはカーネル毎に学習し、コンピュータビジョンのためのディープラーニングの新たな視野を開くことが示されている。
- 参考スコア(独自算出の注目度): 41.94295877935867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce Convolutional Kolmogorov-Arnold Networks (Convolutional KANs), an innovative alternative to the standard Convolutional Neural Networks (CNNs) that have revolutionized the field of computer vision. By integrating the learneable non-linear activation functions presented in Kolmogorov-Arnold Networks (KANs) into convolutions, we propose a new layer. Throughout the paper, we empirically validate the performance of Convolutional KANs against traditional architectures across Fashion-MNIST dataset, finding that, in some cases, this new approach maintains a similar level of accuracy while using half the number of parameters. This experiments show that KAN Convolutions seem to learn more per kernel, which opens up a new horizon of possibilities in deep learning for computer vision.
- Abstract(参考訳): 本稿では,コンピュータビジョンの分野に革命をもたらした標準畳み込みニューラルネットワーク(CNN)の革新的な代替品であるConvolutional Kolmogorov-Arnold Networks (Convolutional Kans)を紹介する。
Kolmogorov-Arnold Networks (KAN) で提示される学習可能な非線形活性化関数を畳み込みに組み込むことにより,新しい層を提案する。
論文全体を通して、Fashion-MNISTデータセットをまたいだ従来のアーキテクチャに対するConvolutional Kansの性能を実証的に検証し、新しいアプローチではパラメータの半数を使用しながら、同様の精度を維持している場合もあります。
この実験により,kan Convolutionsはカーネルごとの学習能力が向上し,コンピュータビジョンの深層学習の新たな視野が開けることが示されている。
関連論文リスト
- PRKAN: Parameter-Reduced Kolmogorov-Arnold Networks [47.947045173329315]
Kolmogorov-Arnold Networks (KAN) は、ニューラルネットワークアーキテクチャの革新を象徴している。
Kansは、CNN、Recurrent Reduced Networks(RNN)、Transformerなどのモデルで、MLP(Multi-Layer Perceptrons)に代わる魅力的な代替手段を提供する。
本稿では,階層内のパラメータ数を削減するために複数の手法を用いたPRKANを導入し,ニューラルM層に匹敵する手法を提案する。
論文 参考訳(メタデータ) (2025-01-13T03:07:39Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - KANICE: Kolmogorov-Arnold Networks with Interactive Convolutional Elements [1.663204995903499]
コンボリューショナルニューラルネットワーク(CNN)とコルモゴロフ・アルノルドネットワーク(KAN)の原理を組み合わせた,新しいニューラルネットワークアーキテクチャであるKanICEを紹介する。
KanICEはInteractive Convolutional Blocks (ICB) と Kan の線形層を CNN フレームワークに統合する。
MNIST, Fashion-MNIST, EMNIST, SVHNの4つのデータセットを用いて,KanICEの評価を行った。
論文 参考訳(メタデータ) (2024-10-22T16:50:34Z) - Residual Kolmogorov-Arnold Network for Enhanced Deep Learning [0.5852077003870417]
我々はKANフレームワークを残留成分として組み込んだResidual Arnoldを紹介する。
視覚データにおける深部CNNの能力を高めるためのRKANの可能性を示す。
論文 参考訳(メタデータ) (2024-10-07T21:12:32Z) - Kolmogorov-Arnold Network Autoencoders [0.0]
Kolmogorov-Arnold Networks (KAN)はMulti-Layer Perceptrons (MLP)に代わる有望な代替品である。
カンはコルモゴロフ・アルノルドの表現定理と密接に一致し、モデル精度と解釈可能性の両方を高める可能性がある。
この結果から,kanベースのオートエンコーダは復元精度の点で競争力を発揮することが示された。
論文 参考訳(メタデータ) (2024-10-02T22:56:00Z) - Reimagining Linear Probing: Kolmogorov-Arnold Networks in Transfer Learning [18.69601183838834]
Kolmogorov-Arnold Networks (KAN) は、伝達学習における従来の線形探索手法の拡張である。
Kanは、従来の線形探索よりも一貫して優れており、精度と一般化の大幅な改善を実現している。
論文 参考訳(メタデータ) (2024-09-12T05:36:40Z) - Kolmogorov-Arnold Convolutions: Design Principles and Empirical Studies [0.0]
本稿では,コンピュータビジョン分野におけるKAN(Kolmogorov-Arnold Networks)の適用について検討する。
本論文では,コルモゴロフ・アルノルド畳み込み層に対するパラメータ効率設計と,事前学習したkanモデルに対するパラメータ効率の微調整アルゴリズムを提案する。
画像分類タスクのためのMNIST, CIFAR10, CIFAR100, Tiny ImageNet, ImageNet1k, HAM10000データセットについて実験を行った。
論文 参考訳(メタデータ) (2024-07-01T08:49:33Z) - TKAN: Temporal Kolmogorov-Arnold Networks [0.0]
LSTM(Long Short-Term Memory)は、シーケンシャルデータにおける長期的な依存関係をキャプチャする能力を示している。
Kolmogorov-Arnold Networks (KANs) に触発されたマルチ層パーセプトロン(MLP)の代替案
我々はkanとLSTM、TKAN(Temporal Kolomogorov-Arnold Networks)にインスパイアされた新しいニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-05-12T17:40:48Z) - Mechanism of feature learning in convolutional neural networks [14.612673151889615]
我々は、畳み込みニューラルネットワークが画像データからどのように学習するかのメカニズムを特定する。
我々は,フィルタの共分散とパッチベースAGOPの相関関係の同定を含む,アンザッツの実証的証拠を提示する。
次に、パッチベースのAGOPを用いて、畳み込みカーネルマシンの深い特徴学習を可能にすることにより、結果の汎用性を実証する。
論文 参考訳(メタデータ) (2023-09-01T16:30:02Z) - From NeurODEs to AutoencODEs: a mean-field control framework for
width-varying Neural Networks [68.8204255655161]
本稿では,動的に駆動する制御フィールドをベースとした,AutoencODEと呼ばれる新しいタイプの連続時間制御システムを提案する。
損失関数が局所凸な領域では,多くのアーキテクチャが復元可能であることを示す。
論文 参考訳(メタデータ) (2023-07-05T13:26:17Z) - Nonparametric Classification on Low Dimensional Manifolds using Overparameterized Convolutional Residual Networks [78.11734286268455]
非パラメトリック分類の観点から重量減衰を訓練したConvResNeXtsの性能について検討した。
我々の分析は、ConvResNeXtsにおいて無限に多くのビルディングブロックを許容し、重み減衰がこれらのブロックに空間性を暗黙的に強制することを示す。
論文 参考訳(メタデータ) (2023-07-04T11:08:03Z) - Combining Neuro-Evolution of Augmenting Topologies with Convolutional
Neural Networks [0.0]
我々は、NEAT(NeuroEvolution of Augmenting Topologies)とCNN(Convolutional Neural Networks)を組み合わせて、Residual Networks(ResNets)ブロックを用いたシステムを提案する。
遺伝的アルゴリズムは、バックプロパゲーション毎のトレーニングよりもはるかに要求が高いため、我々の提案するシステムは、追加の最適化が実施されれば、どのように構築できるのかを説明します。
論文 参考訳(メタデータ) (2022-10-20T18:41:57Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。