論文の概要: A Versatile Hub Model For Efficient Information Propagation And Feature
Selection
- arxiv url: http://arxiv.org/abs/2307.02398v1
- Date: Wed, 5 Jul 2023 16:14:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 13:07:05.323695
- Title: A Versatile Hub Model For Efficient Information Propagation And Feature
Selection
- Title(参考訳): 効率的な情報伝達と特徴選択のためのVersatile Hub Model
- Authors: Zhaoze Wang, Junsong Wang
- Abstract要約: ハブ構造は生物学的脳の顕著な特徴である。
ハブ構造は、接続数が少ない多数のノードに囲まれた、いくつかの高度に相互接続されたノードによって特徴づけられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hub structure, characterized by a few highly interconnected nodes surrounded
by a larger number of nodes with fewer connections, is a prominent topological
feature of biological brains, contributing to efficient information transfer
and cognitive processing across various species. In this paper, a mathematical
model of hub structure is presented. The proposed method is versatile and can
be broadly applied to both computational neuroscience and Recurrent Neural
Networks (RNNs) research. We employ the Echo State Network (ESN) as a means to
investigate the mechanistic underpinnings of hub structures. Our findings
demonstrate a substantial enhancement in performance upon incorporating the hub
structure. Through comprehensive mechanistic analyses, we show that the hub
structure improves model performance by facilitating efficient information
processing and better feature extractions.
- Abstract(参考訳): ハブ構造は、接続が少ない多数のノードに囲まれた少数の高度に相互接続されたノードによって特徴づけられ、生物学的脳の顕著なトポロジカルな特徴であり、様々な種の効率的な情報伝達と認知処理に寄与している。
本稿では,ハブ構造の数学的モデルを提案する。
提案手法は多用途であり,計算神経科学とrecurrent neural networks (rnns) の研究に広く適用可能である。
我々は,ハブ構造の機械的基盤を調査する手段として,エコー状態ネットワーク(esn)を用いた。
本研究は,ハブ構造の導入による性能向上を示すものである。
包括的力学解析により,効率的な情報処理と優れた特徴抽出により,ハブ構造がモデル性能を向上させることを示す。
関連論文リスト
- DmADs-Net: Dense multiscale attention and depth-supervised network for medical image segmentation [10.85494240952418]
我々はDmAD-Net(Multiscale Attention and Depth-Supervised Network)を開発した。
異なる深さで機能抽出にResNetを使用し、マルチスケールの畳み込み機能注意ブロックを作成します。
ローカル・フィーチャー・アテンション・ブロックは、高レベルのセマンティック情報に対するローカル・フィーチャー・アテンションを強化するために作成される。
フィーチャーフュージョンフェーズでは、異なるセマンティック情報の融合を強化するために、フィーチャーリファインメントとフュージョンブロックが作成される。
論文 参考訳(メタデータ) (2024-05-01T12:15:58Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Joint Feature and Differentiable $ k $-NN Graph Learning using Dirichlet
Energy [103.74640329539389]
特徴選択と識別可能な$k $-NNグラフ学習を同時に行うディープFS法を提案する。
我々は、ニューラルネットワークで$ k $-NNグラフを学習する際の非微分可能性問題に対処するために、最適輸送理論を用いる。
本モデルの有効性を,合成データセットと実世界のデータセットの両方で広範な実験により検証する。
論文 参考訳(メタデータ) (2023-05-21T08:15:55Z) - Max and Coincidence Neurons in Neural Networks [0.07614628596146598]
ニューラルアーキテクチャサーチを用いて、最大ニューロンと偶然ニューロンのモデルを含むネットワークを最適化する。
我々は、信号処理ResNetを開発するために最適化ネットワークの構造、動作、ニューロンを分析する。
開発されたネットワークは、精度が平均2%向上し、さまざまなデータセットでネットワークサイズが25%向上した。
論文 参考訳(メタデータ) (2021-10-04T07:13:50Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Structure and Performance of Fully Connected Neural Networks: Emerging
Complex Network Properties [0.8484871864277639]
完全連結ニューラルネットワークの構造と性能を解析するために,複素ネットワーク(CN)技術を提案する。
4万のモデルとそれぞれのCNプロパティでデータセットを構築します。
本研究は,完全連結ニューラルネットワークの性能において,CN特性が重要な役割を担っていることを示唆する。
論文 参考訳(メタデータ) (2021-07-29T14:53:52Z) - On the Exploitation of Neuroevolutionary Information: Analyzing the Past
for a More Efficient Future [60.99717891994599]
本稿では,神経進化過程から情報を抽出し,メタモデルを構築するアプローチを提案する。
本稿では, 異なる特徴を有する生成的対向ネットワークの神経進化的探索における最良の構造について検討する。
論文 参考訳(メタデータ) (2021-05-26T20:55:29Z) - A Graph Neural Network Framework for Causal Inference in Brain Networks [0.3392372796177108]
神経科学における中心的な問題は、脳内の自律的な動的相互作用が、比較的静的なバックボーンにどのように現れるかである。
構造解剖学的レイアウトに基づく機能的相互作用を記述するグラフニューラルネットワーク(GNN)フレームワークを提案する。
我々は,GNNがデータの長期的依存関係をキャプチャし,大規模ネットワークの解析までスケールアップ可能であることを示す。
論文 参考訳(メタデータ) (2020-10-14T15:01:21Z) - AM-GCN: Adaptive Multi-channel Graph Convolutional Networks [85.0332394224503]
グラフ畳み込みネットワーク(GCN)は,豊富な情報を持つ複雑なグラフにおいて,ノードの特徴と位相構造を最適に統合できるかどうかを検討する。
半教師付き分類(AM-GCN)のための適応型マルチチャネルグラフ畳み込みネットワークを提案する。
実験の結果,AM-GCNはノードの特徴とトポロジ的構造の両方から最も相関性の高い情報を抽出することがわかった。
論文 参考訳(メタデータ) (2020-07-05T08:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。