論文の概要: AU-NN: ANFIS Unit Neural Network
- arxiv url: http://arxiv.org/abs/2204.11839v1
- Date: Thu, 21 Apr 2022 18:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-01 08:51:15.356162
- Title: AU-NN: ANFIS Unit Neural Network
- Title(参考訳): AU-NN:ANFISユニットニューラルネットワーク
- Authors: Tonatiuh Hern\'andez-del-Toro, Carlos A. Reyes-Garc\'ia, Luis
Villase\~nor-Pineda
- Abstract要約: 本稿では、個々のニューロンが独立したANFISであるディープニューラルネットワークであるANFISユニットニューラルネットワークについて述べる。
このネットワークの2つのユースケースは、ネットワークの能力をテストするために示される。
- 参考スコア(独自算出の注目度): 0.16058099298620418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper is described the ANFIS Unit Neural Network, a deep neural
network where each neuron is an independent ANFIS. Two use cases of this
network are shown to test the capability of the network. (i) Classification of
five imagined words. (ii) Incremental learning in the task of detecting
Imagined Word Segments vs. Idle State Segments. In both cases, the proposed
network outperforms the conventional methods. Additionally, is described a
process of classification where instead of taking the whole instance as one
example, each instance is decomposed into a set of smaller instances, and the
classification is done by a majority vote over all the predictions of the set.
The codes to build the AU-NN used in this paper, are available on the github
repository https://github.com/tonahdztoro/AU_NN.
- Abstract(参考訳): 本稿では、各ニューロンが独立な anfis であるディープニューラルネットワークである anfis unit neural network について述べる。
このネットワークの2つのユースケースは、ネットワークの能力をテストするために示される。
i)5つの想像上の単語の分類。
(ii) 想像された単語セグメントとアイドル状態セグメントを区別するタスクにおけるインクリメンタル学習。
どちらの場合も、提案するネットワークは従来の手法よりも優れている。
さらに、インスタンス全体をひとつの例として扱う代わりに、各インスタンスを小さなインスタンスの集合に分解し、その分類は集合のすべての予測に対して多数決によって行われる。
この論文で使用されるAU-NNを構築するためのコードは、githubリポジトリ https://github.com/tonahdztoro/AU_NNで公開されている。
関連論文リスト
- GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Coin Flipping Neural Networks [8.009932864430901]
ランダム性を持つニューラルネットワークは、増幅を用いて決定論的ネットワークより優れていることを示す。
我々は、ほとんどの分類問題に対して、決定論的ネットワークよりも高い精度または少ないニューロンでそれらを解くCFNNが存在すると推測する。
論文 参考訳(メタデータ) (2022-06-18T11:19:44Z) - Wide and Deep Neural Networks Achieve Optimality for Classification [23.738242876364865]
我々は、最適性を達成するニューラルネットワーク分類器の明示的な集合を同定し、構築する。
特に、最適性を実現するネットワーク構築に使用できる明示的なアクティベーション関数を提供する。
その結果,過度な深度が有害な回帰タスクとは対照的に,分類タスクにディープネットワークを使用することの利点が浮き彫りになった。
論文 参考訳(メタデータ) (2022-04-29T14:27:42Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Redundant representations help generalization in wide neural networks [71.38860635025907]
様々な最先端の畳み込みニューラルネットワークの最後に隠された層表現について検討する。
最後に隠された表現が十分に広ければ、そのニューロンは同一の情報を持つグループに分裂し、統計的に独立したノイズによってのみ異なる傾向にある。
論文 参考訳(メタデータ) (2021-06-07T10:18:54Z) - Analyzing Representations inside Convolutional Neural Networks [8.803054559188048]
本稿では,ネットワークが学習する概念を,一連の入力例をクラスタリングする方法に基づいて分類するフレームワークを提案する。
このフレームワークは教師なしで、入力機能のためのラベルなしで機能する。
提案手法を広範に評価し,人間の理解しやすさとコヒーレントな概念を創出することを示す。
論文 参考訳(メタデータ) (2020-12-23T07:10:17Z) - Locality Guided Neural Networks for Explainable Artificial Intelligence [12.435539489388708]
LGNN(Locality Guided Neural Network)と呼ばれる,バック伝搬のための新しいアルゴリズムを提案する。
LGNNはディープネットワークの各層内の隣接ニューロン間の局所性を保っている。
実験では,CIFAR100 上の画像分類のための様々な VGG と Wide ResNet (WRN) ネットワークを訓練した。
論文 参考訳(メタデータ) (2020-07-12T23:45:51Z) - Graph Prototypical Networks for Few-shot Learning on Attributed Networks [72.31180045017835]
グラフメタ学習フレームワーク - Graph Prototypeal Networks (GPN) を提案する。
GPNは、属性付きネットワーク上でテキストミータ学習を行い、ターゲット分類タスクを扱うための高度に一般化可能なモデルを導出する。
論文 参考訳(メタデータ) (2020-06-23T04:13:23Z) - BUSU-Net: An Ensemble U-Net Framework for Medical Image Segmentation [0.0]
畳み込みニューラルネットワーク(CNN)は医療画像解析に革命をもたらした。
基礎となるU-Netフレームワークを用いたアンサンブルディープニューラルネットワークを提案する。
このアンサンブルネットワークは,いくつかの評価指標において,最近の最先端ネットワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-03T15:18:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。