論文の概要: Exploring Kervolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2201.07264v1
- Date: Thu, 6 Jan 2022 17:30:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-23 21:18:17.317775
- Title: Exploring Kervolutional Neural Networks
- Title(参考訳): 進化型ニューラルネットワークの探索
- Authors: Nicolas Perez
- Abstract要約: 論文は、KNNはCNNよりも早く収束し、高い精度を達成すると主張している。
この「ミニペーパー」は、元の論文の発見をさらに調べ、KNNアーキテクチャのより詳細な分析を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A paper published in the CVPR 2019 conference outlines a new technique called
'kervolution' used in a new type of augmented convolutional neural network
(CNN) called a 'kervolutional neural network' (KNN). The paper asserts that
KNNs achieve faster convergence and higher accuracies than CNNs. This "mini
paper" will further examine the findings in the original paper and perform a
more in depth analysis of the KNN architecture. This will be done by analyzing
the impact of hyper parameters (specifically the learning rate) on KNNs versus
CNNs, experimenting with other types of kervolution operations not tested in
the original paper, a more rigourous statistical analysis of accuracies and
convergence times and additional theoretical analysis. The accompanying code is
publicly available.
- Abstract(参考訳): cvpr 2019で発表された論文では、新たなタイプの拡張畳み込みニューラルネットワーク(cnn)で使用される、"kervolutional neural network"(knn)と呼ばれる新しいテクニックが概説されている。
論文は、KNNはCNNよりも早く収束し、高い精度を達成すると主張している。
この「ミニペーパー」は、元の論文の発見をさらに調べ、KNNアーキテクチャのより詳細な分析を行う。
これは、KNNとCNNに対するハイパーパラメータ(特に学習率)の影響を分析し、元の論文ではテストされていない他のタイプのカーボリューション操作の実験、精度と収束時間のより厳密な統計分析、さらなる理論的分析によって行われる。
添付コードも公開されている。
関連論文リスト
- Investigating Sparsity in Recurrent Neural Networks [0.0]
本論文は, プルーニングとスパースリカレントニューラルネットワークがRNNの性能に与える影響を考察することに焦点を当てる。
まず,RNNの刈り込み,RNNの性能への影響,および刈り込み後の精度回復に必要な訓練エポック数について述べる。
次に、スパースリカレントニューラルネットワークの作成と訓練を継続し、その基礎となる任意の構造の性能とグラフ特性の関係を同定する。
論文 参考訳(メタデータ) (2024-07-30T07:24:58Z) - On the rates of convergence for learning with convolutional neural networks [9.772773527230134]
畳み込みニューラルネットワーク(CNN)の1側ゼロパディングと複数のチャネルによる近似と学習能力について検討した。
多くの学習問題におけるCNNに基づく推定器の収束率を導出する。
また、得られた分類率は、いくつかの一般的な設定において極小であることも示している。
論文 参考訳(メタデータ) (2024-03-25T06:42:02Z) - Impact of Data Augmentation on QCNNs [1.1510009152620664]
量子畳み込みニューラルネットワーク(QCNN)は,量子機構を用いてCNNの新たな一般化として提案される。
本稿では,CNN と QCNN を比較し,一般的に使用されている3つのデータセットの損失と予測精度をテストする。
論文 参考訳(メタデータ) (2023-12-01T05:28:19Z) - Improving the Accuracy and Robustness of CNNs Using a Deep CCA Neural
Data Regularizer [2.026424957803652]
畳み込みニューラルネットワーク(CNN)がオブジェクト認識においてより正確になるにつれて、それらの表現は霊長類の視覚システムとよりよく似ている。
この問題に対処する以前の試みは、正規化法の制限により、精度が極端に向上した。
我々は,CNNのイメージ表現とサル視覚野との類似性を最適化するために,ディープ相関解析(DCCA)を用いた新しいCNN用ニューラルデータ正規化器を開発した。
論文 参考訳(メタデータ) (2022-09-06T15:40:39Z) - The Spectral Bias of Polynomial Neural Networks [63.27903166253743]
PNN(Polynomial Neural Network)は、高頻度情報を重要視する画像生成と顔認識に特に有効であることが示されている。
これまでの研究では、ニューラルネットワークが低周波関数に対して$textitspectral bias$を示しており、トレーニング中に低周波成分のより高速な学習をもたらすことが示されている。
このような研究に触発されて、我々はPNNのTangent Kernel(NTK)のスペクトル分析を行う。
我々は、最近提案されたPNNのパラメトリゼーションである$Pi$-Netファミリがスピードアップすることを発見した。
論文 参考訳(メタデータ) (2022-02-27T23:12:43Z) - Toward the Analysis of Graph Neural Networks [1.0412114420493723]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ分析のための堅牢なフレームワークとして登場した。
本稿では,GNNをフィードフォワードニューラルネットワーク(Feed Forward Neural Networks:FFNN)に変換し,既存のFFNN分析を再利用することで,GNNの分析手法を提案する。
論文 参考訳(メタデータ) (2022-01-01T04:59:49Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。