論文の概要: Capacity Studies for a Differential Growing Neural Gas
- arxiv url: http://arxiv.org/abs/2212.12319v1
- Date: Fri, 23 Dec 2022 13:19:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 16:26:26.888796
- Title: Capacity Studies for a Differential Growing Neural Gas
- Title(参考訳): 差動成長型ニューラルガスの容量研究
- Authors: P. Levi, P. Gelhausen, G. Peters
- Abstract要約: 本研究では,Fashion-MNISTデータセット上での2層DGNGグリッドセルモデルのキャパシティを評価する。
DGNGモデルは入力空間の有意義かつ妥当な表現を得ることができると結論付けている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In 2019 Kerdels and Peters proposed a grid cell model (GCM) based on a
Differential Growing Neural Gas (DGNG) network architecture as a
computationally efficient way to model an Autoassociative Memory Cell (AMC)
\cite{Kerdels_Peters_2019}. An important feature of the DGNG architecture with
respect to possible applications in the field of computational neuroscience is
its \textit{capacity} refering to its capability to process and uniquely
distinguish input signals and therefore obtain a valid representation of the
input space. This study evaluates the capacity of a two layered DGNG grid cell
model on the Fashion-MNIST dataset. The focus on the study lies on the
variation of layer sizes to improve the understanding of capacity properties in
relation to network parameters as well as its scaling properties. Additionally,
parameter discussions and a plausability check with a pixel/segment variation
method are provided. It is concluded, that the DGNG model is able to obtain a
meaningful and plausible representation of the input space and to cope with the
complexity of the Fashion-MNIST dataset even at moderate layer sizes.
- Abstract(参考訳): 2019年、カーデルスとピーターズは、オートアソシアティブメモリセル (AMC) \cite{Kerdels_Peters_2019} をモデル化するための計算効率の良い方法として、DGNGネットワークアーキテクチャに基づくグリッドセルモデル(GCM)を提案した。
計算神経科学の分野における応用の可能性に関して、DGNGアーキテクチャの重要な特徴は、入力信号を処理し、一意に区別し、従って入力空間の有効な表現を得る能力を指す「textit{capacity}」である。
本研究では,Fashion-MNISTデータセット上での2層DGNGグリッドセルモデルの容量を評価する。
この研究の焦点は、ネットワークパラメータとスケーリング特性との関係において、キャパシティ特性の理解を改善するための、レイヤサイズの変化である。
また、パラメータ議論と画素/セグメント変動法による可算性チェックを提供する。
結論として、DGNGモデルは入力空間の有意義かつ妥当な表現を得ることができ、中程度の層でもFashion-MNISTデータセットの複雑さに対応することができる。
関連論文リスト
- Rethinking Graph Transformer Architecture Design for Node Classification [4.497245600377944]
グラフトランスフォーマー(GT)は、高次メッセージパッシングを容易にするためにマルチヘッドアテンションを利用するグラフニューラルネットワーク(GNN)の一種である。
本研究では,ノード分類タスクにおけるGTアーキテクチャの適応性を検討するための観測実験を行う。
提案したGTアーキテクチャは,グローバルノイズや計算効率の制限の影響を受けずに,ノード分類タスクに効果的に適応することができる。
論文 参考訳(メタデータ) (2024-10-15T02:08:16Z) - Solution space and storage capacity of fully connected two-layer neural networks with generic activation functions [0.552480439325792]
二項分類モデルの記憶容量は、モデルが学習できるパラメータ毎のランダムな入出力ペアの最大数である。
一般活性化機能を持つ完全連結二層ニューラルネットワークの解空間の構造と記憶容量を解析する。
論文 参考訳(メタデータ) (2024-04-20T15:12:47Z) - Interpretable A-posteriori Error Indication for Graph Neural Network Surrogate Models [0.0]
本稿では,グラフニューラルネットワーク(GNN)の解釈可能性向上手法を提案する。
最終結果は、予測タスクに本質的に関連付けられたサブグラフに対応する物理空間内の領域を分離する解釈可能なGNNモデルである。
解釈可能なGNNは、推論中に予測される予測エラーの大部分に対応するグラフノードを特定するためにも使用できる。
論文 参考訳(メタデータ) (2023-11-13T18:37:07Z) - MuseGNN: Interpretable and Convergent Graph Neural Network Layers at
Scale [15.93424606182961]
本稿では, ある設定における収束保証によって導かれる, サンプリングベースエネルギー関数と拡張性のあるGNN層を反復的に削減する手法を提案する。
また、これらの設計に基づいて完全なGNNアーキテクチャをインスタンス化し、1TBを超える最大公用ノード分類ベンチマークに適用した場合の競合精度とスケーラビリティを実現する。
論文 参考訳(メタデータ) (2023-10-19T04:30:14Z) - T1: Scaling Diffusion Probabilistic Fields to High-Resolution on Unified
Visual Modalities [69.16656086708291]
拡散確率場(DPF)は、距離空間上で定義された連続関数の分布をモデル化する。
本稿では,局所構造学習に着目したビューワイズサンプリングアルゴリズムによる新しいモデルを提案する。
モデルは、複数のモダリティを統一しながら、高解像度のデータを生成するためにスケールすることができる。
論文 参考訳(メタデータ) (2023-05-24T03:32:03Z) - A new perspective on probabilistic image modeling [92.89846887298852]
本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
論文 参考訳(メタデータ) (2022-03-21T14:53:57Z) - Lightweight, Dynamic Graph Convolutional Networks for AMR-to-Text
Generation [56.73834525802723]
軽量な動的グラフ畳み込みネットワーク (LDGCN) を提案する。
LDGCNは入力グラフから高次情報を合成することにより、よりリッチな非局所的な相互作用をキャプチャする。
我々は,グループグラフの畳み込みと重み付き畳み込みに基づく2つの新しいパラメータ保存戦略を開発し,メモリ使用量とモデル複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-09T06:03:46Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - Generalising Recursive Neural Models by Tensor Decomposition [12.069862650316262]
テンソル型定式化を利用した構造文脈のモデルアグリゲーションに対する一般的なアプローチを提案する。
パラメータ空間の大きさの指数関数的成長は、タッカー分解に基づく近似によって制御できることを示す。
これにより、隠れたサイズ、計算複雑性、モデル一般化によって制御される符号化の表現性の間のトレードオフを効果的に制御できる。
論文 参考訳(メタデータ) (2020-06-17T17:28:19Z) - Deep Autoencoding Topic Model with Scalable Hybrid Bayesian Inference [55.35176938713946]
我々は、ガンマ分布の階層構造を用いて、その多確率層生成ネットワークを構築するディープ・オートエンコーディング・トピック・モデル(DATM)を開発した。
Weibull上向き変分エンコーダを提案する。このエンコーダは深層ニューラルネットワークを介して情報を上向きに伝播し,次いで下向き生成モデルを提案する。
大規模コーパス上での教師なしおよび教師なしの学習タスクにおいて,モデルの有効性とスケーラビリティを実証した。
論文 参考訳(メタデータ) (2020-06-15T22:22:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。