論文の概要: CP-CNN: Core-Periphery Principle Guided Convolutional Neural Network
- arxiv url: http://arxiv.org/abs/2304.10515v1
- Date: Mon, 27 Mar 2023 03:59:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-23 03:59:31.828223
- Title: CP-CNN: Core-Periphery Principle Guided Convolutional Neural Network
- Title(参考訳): CP-CNN:コア周辺原理誘導畳み込みニューラルネットワーク
- Authors: Lin Zhao, Haixing Dai, Zihao Wu, Dajiang Zhu, Tianming Liu
- Abstract要約: 我々は、ネットワーク配線パターンの設計と畳み込み操作のスパーシフィケーションにコア周辺原理を実装した。
私たちの研究は、人間の脳からの洞察をニューラルネットワークの設計に取り入れることで、脳にインスパイアされたAIの分野の成長に寄与します。
- 参考スコア(独自算出の注目度): 9.015666133509857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The evolution of convolutional neural networks (CNNs) can be largely
attributed to the design of its architecture, i.e., the network wiring pattern.
Neural architecture search (NAS) advances this by automating the search for the
optimal network architecture, but the resulting network instance may not
generalize well in different tasks. To overcome this, exploring network design
principles that are generalizable across tasks is a more practical solution. In
this study, We explore a novel brain-inspired design principle based on the
core-periphery property of the human brain network to guide the design of CNNs.
Our work draws inspiration from recent studies suggesting that artificial and
biological neural networks may have common principles in optimizing network
architecture. We implement the core-periphery principle in the design of
network wiring patterns and the sparsification of the convolution operation.
The resulting core-periphery principle guided CNNs (CP-CNNs) are evaluated on
three different datasets. The experiments demonstrate the effectiveness and
superiority compared to CNNs and ViT-based methods. Overall, our work
contributes to the growing field of brain-inspired AI by incorporating insights
from the human brain into the design of neural networks.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)の進化は、そのアーキテクチャ、すなわちネットワーク配線パターンの設計に大きく関係している。
neural architecture search (nas) は最適なネットワークアーキテクチャの探索を自動化することでこれを前進させるが、ネットワークインスタンスは異なるタスクでうまく一般化できない可能性がある。
これを解決するために、タスク間で一般化可能なネットワーク設計原則を探求することが、より実用的なソリューションである。
本研究では,cnnの設計を導くために,ヒト脳ネットワークのコア・パーピヒー性に基づく新しい脳インスパイアデザイン原理について検討する。
我々の研究は、ニューラルネットワークがネットワークアーキテクチャを最適化する共通の原則を持つかもしれないという最近の研究からインスピレーションを得ている。
我々は、ネットワーク配線パターンの設計と畳み込み操作のスパーシフィケーションにコア周辺原理を実装した。
CNN(CP-CNN)のコア周辺原理を3つの異なるデータセットで評価する。
実験はcnnおよびvitに基づく手法と比較して有効性と優越性を示す。
私たちの研究は、人間の脳からの洞察をニューラルネットワークの設計に取り入れることで、脳にインスパイアされたAIの分野の成長に貢献しています。
関連論文リスト
- Cartesian Genetic Programming Approach for Designing Convolutional Neural Networks [0.0]
人工ニューラルネットワークの設計において、革新的なアプローチの1つの重要な側面は、新しいニューラルネットワークアーキテクチャを提案することである。
本研究では,CNNを設計するために純粋遺伝的プログラミング手法を用いる。
予備実験の過程で,提案手法は有望な結果をもたらす。
論文 参考訳(メタデータ) (2024-09-30T18:10:06Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Deep Neural Networks as Complex Networks [1.704936863091649]
我々は、重み付きグラフとしてディープニューラルネットワーク(DNN)を表現するために複雑ネットワーク理論を用いる。
我々は、DNNを動的システムとして研究するためのメトリクスを導入し、その粒度は、重みから神経細胞を含む層まで様々である。
我々の測定値が低性能ネットワークと高パフォーマンスネットワークを区別していることが示される。
論文 参考訳(メタデータ) (2022-09-12T16:26:04Z) - Deep Reinforcement Learning Guided Graph Neural Networks for Brain
Network Analysis [61.53545734991802]
本稿では,各脳ネットワークに最適なGNNアーキテクチャを探索する新しい脳ネットワーク表現フレームワークBN-GNNを提案する。
提案するBN-GNNは,脳ネットワーク解析タスクにおける従来のGNNの性能を向上させる。
論文 参考訳(メタデータ) (2022-03-18T07:05:27Z) - Max and Coincidence Neurons in Neural Networks [0.07614628596146598]
ニューラルアーキテクチャサーチを用いて、最大ニューロンと偶然ニューロンのモデルを含むネットワークを最適化する。
我々は、信号処理ResNetを開発するために最適化ネットワークの構造、動作、ニューロンを分析する。
開発されたネットワークは、精度が平均2%向上し、さまざまなデータセットでネットワークサイズが25%向上した。
論文 参考訳(メタデータ) (2021-10-04T07:13:50Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Deep neural networks for the evaluation and design of photonic devices [0.0]
レビュー:ディープニューラルネットワークは、トレーニングセットからどのように学習し、高速サロゲート電磁解法として動作するか。
フォトニクスの文脈内での基本的なデータ科学についても論じる。
論文 参考訳(メタデータ) (2020-06-30T19:52:54Z) - Emergence of Network Motifs in Deep Neural Networks [0.35911228556176483]
ニューラルネットワークの研究にネットワークサイエンスツールをうまく応用できることが示される。
特に,マルチ層パーセプトロンにおけるネットワークモチーフの出現について検討する。
論文 参考訳(メタデータ) (2019-12-27T17:05:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。