論文の概要: A layer-stress learning framework universally augments deep neural
network tasks
- arxiv url: http://arxiv.org/abs/2111.08597v1
- Date: Sun, 14 Nov 2021 15:14:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 07:57:08.818691
- Title: A layer-stress learning framework universally augments deep neural
network tasks
- Title(参考訳): ディープニューラルネットワークタスクを普遍的に拡張するレイヤストレス学習フレームワーク
- Authors: Shihao Shao, Yong Liu, Qinghua Cui
- Abstract要約: 本稿では,深層ネットワークにおける浅層・深層特徴マップの自動的・賢明な深度決定を実現する階層型深層学習フレームワーク(x-NN)を提案する。
x-NNは、アルツハイマー病分類技術チャレンジ(PRCV 2021)において、優れた予測能力を示し、トップローレルを獲得し、他のすべてのAIモデルを上回った。
- 参考スコア(独自算出の注目度): 6.2067442999727644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNN) such as Multi-Layer Perception (MLP) and
Convolutional Neural Networks (CNN) represent one of the most established deep
learning algorithms. Given the tremendous effects of the number of hidden
layers on network architecture and performance, it is very important to choose
the number of hidden layers but still a serious challenge. More importantly,
the current network architectures can only process the information from the
last layer of the feature extractor, which greatly limited us to further
improve its performance. Here we presented a layer-stress deep learning
framework (x-NN) which implemented automatic and wise depth decision on shallow
or deep feature map in a deep network through firstly designing enough number
of layers and then trading off them by Multi-Head Attention Block. The x-NN can
make use of features from various depth layers through attention allocation and
then help to make final decision as well. As a result, x-NN showed outstanding
prediction ability in the Alzheimer's Disease Classification Technique
Challenge PRCV 2021, in which it won the top laurel and outperformed all other
AI models. Moreover, the performance of x-NN was verified by one more AD
neuroimaging dataset and other AI tasks.
- Abstract(参考訳): MLP(Multi-Layer Perception)やCNN(Convolutional Neural Networks)といったディープニューラルネットワークは、最も確立されたディープラーニングアルゴリズムの1つである。
隠れたレイヤの数がネットワークアーキテクチャとパフォーマンスに与える影響を考えると、隠れたレイヤの数を選択することは非常に重要ですが、それでも深刻な課題です。
さらに重要なことに,現在のネットワークアーキテクチャでは,機能抽出の最後のレイヤからのみ情報を処理することが可能です。
本稿では,層分割型深層学習フレームワーク(x-nn)について紹介する。深層ネットワークにおける浅層あるいは深層機能マップの自動的かつ賢明な深さ決定を,まず十分な数の層を設計し,次にマルチヘッドアテンションブロックで切り換える。
x-nnはアテンションアロケーションを通じてさまざまな深さ層からの機能を利用することができ、最終的な決定にも役立ちます。
その結果、x-NNはアルツハイマー病分類技術チャレンジ(PRCV 2021)において優れた予測能力を示し、この結果、他のAIモデルよりも優れていた。
さらに、x-NNの性能は、1つのADニューロイメージングデータセットや他のAIタスクによって検証された。
関連論文リスト
- Deeper or Wider: A Perspective from Optimal Generalization Error with
Sobolev Loss [2.44755919161855]
より深いニューラルネットワーク(DeNN)と、柔軟な数のレイヤと、限られた隠れたレイヤを持つより広いニューラルネットワーク(WeNN)を比較します。
より多くのパラメータがWeNNを好む傾向にあるのに対し、サンプルポイントの増加と損失関数の規則性の向上は、DeNNの採用に傾いている。
論文 参考訳(メタデータ) (2024-01-31T20:10:10Z) - Unveiling the Unseen: Identifiable Clusters in Trained Depthwise
Convolutional Kernels [56.69755544814834]
深部分離型畳み込みニューラルネットワーク(DS-CNN)の最近の進歩は、新しいアーキテクチャをもたらす。
本稿では,DS-CNNアーキテクチャのもう一つの顕著な特性を明らかにする。
論文 参考訳(メタデータ) (2024-01-25T19:05:53Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - Model-Agnostic Reachability Analysis on Deep Neural Networks [25.54542656637704]
我々はDeepAgnと呼ばれるモデルに依存しない検証フレームワークを開発した。
FNN、リカレントニューラルネットワーク(RNN)、あるいは両者の混合に適用することができる。
レイヤやパラメータといったネットワークの内部構造にアクセスする必要はない。
論文 参考訳(メタデータ) (2023-04-03T09:01:59Z) - Models Developed for Spiking Neural Networks [0.5801044612920815]
スパイキングニューラルネットワーク(SNN)は長い間存在しており、脳のダイナミクスを理解するために研究されてきた。
本研究では,画像分類タスクにおけるSNNの構造と性能について検討した。
比較は、これらのネットワークがより複雑な問題に対して優れた能力を示すことを示している。
論文 参考訳(メタデータ) (2022-12-08T16:18:53Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Solving the Spike Feature Information Vanishing Problem in Spiking Deep
Q Network with Potential Based Normalization [7.796499799525251]
スパイキング深度Qネットワークを直接訓練するための電位ベース層正規化法(pbLN)を提案する。
実験により,最先端のANN-SNN変換法や他のSDQN手法と比較して,提案したpbLNが深Qネットワーク(PL-SDQN)をスパイクすることで,Atariゲームタスクの性能が向上した。
論文 参考訳(メタデータ) (2022-06-08T02:45:18Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - Deep Reinforcement Learning Guided Graph Neural Networks for Brain
Network Analysis [61.53545734991802]
本稿では,各脳ネットワークに最適なGNNアーキテクチャを探索する新しい脳ネットワーク表現フレームワークBN-GNNを提案する。
提案するBN-GNNは,脳ネットワーク解析タスクにおける従来のGNNの性能を向上させる。
論文 参考訳(メタデータ) (2022-03-18T07:05:27Z) - Locality Guided Neural Networks for Explainable Artificial Intelligence [12.435539489388708]
LGNN(Locality Guided Neural Network)と呼ばれる,バック伝搬のための新しいアルゴリズムを提案する。
LGNNはディープネットワークの各層内の隣接ニューロン間の局所性を保っている。
実験では,CIFAR100 上の画像分類のための様々な VGG と Wide ResNet (WRN) ネットワークを訓練した。
論文 参考訳(メタデータ) (2020-07-12T23:45:51Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。