論文の概要: Deep Variable-Block Chain with Adaptive Variable Selection
- arxiv url: http://arxiv.org/abs/1912.03573v2
- Date: Tue, 6 Aug 2024 00:50:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 20:01:27.695694
- Title: Deep Variable-Block Chain with Adaptive Variable Selection
- Title(参考訳): 適応変数選択による深部可変ブロックチェーン
- Authors: Lixiang Zhang, Lin Lin, Jia Li,
- Abstract要約: 本稿では,段階的欲求探索によって得られる連鎖構造を変数のブロックに課す枠組みを提案する。
変数ブロックは逐次的に分類するために使用されるため、複数の領域で訓練された多数の領域によって訓練された多数の領域によって訓練された多数の領域によって訓練された多数の領域によって訓練された多数の領域によって訓練された多数の領域によって訓練された多数の領域によって訓練された多数の領域によって訓練された多数の領域によって訓練された多数の領域によって訓練された多数の領域によって訓練された多数の領域によって訓練された多数の領域によって訓練された多数の領域によって訓練された多くの領域によって訓練された多くの領域によって訓練された多くの領域によって訓練された多くの領域によって訓練された多くの領域によって訓練された複数の領域によって訓練された領域によって、変数を選択する能力を開発する。
- 参考スコア(独自算出の注目度): 14.831346286039151
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The architectures of deep neural networks (DNN) rely heavily on the underlying grid structure of variables, for instance, the lattice of pixels in an image. For general high dimensional data with variables not associated with a grid, the multi-layer perceptron and deep belief network are often used. However, it is frequently observed that those networks do not perform competitively and they are not helpful for identifying important variables. In this paper, we propose a framework that imposes on blocks of variables a chain structure obtained by step-wise greedy search so that the DNN architecture can leverage the constructed grid. We call this new neural network Deep Variable-Block Chain (DVC). Because the variable blocks are used for classification in a sequential manner, we further develop the capacity of selecting variables adaptively according to a number of regions trained by a decision tree. Our experiments show that DVC outperforms other generic DNNs and other strong classifiers. Moreover, DVC can achieve high accuracy at much reduced dimensionality and sometimes reveals drastically different sets of relevant variables for different regions.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)のアーキテクチャは、例えば画像内のピクセルの格子など、変数の基盤となるグリッド構造に大きく依存している。
グリッドに関連のない変数を持つ一般的な高次元データには、多層パーセプトロンとディープ信頼ネットワークがよく用いられる。
しかし、これらのネットワークは競争力がなく、重要な変数を特定するのに役に立たないことがしばしば観察される。
本稿では,DNNアーキテクチャが構築されたグリッドを活用できるように,ステップワイズグリーディサーチによって得られたチェーン構造を変数ブロックに課すフレームワークを提案する。
私たちはこの新しいニューラルネットワークをDeep Variable-Block Chain (DVC)と呼んでいる。
変数ブロックは逐次的に分類するために使用されるため、決定木によって訓練された多くの領域に応じて変数を適応的に選択する能力をさらに発展させる。
実験の結果,DVCは他のジェネリックDNNや強力な分類器よりも優れていた。
さらに、DVCは次元を非常に小さくすることで高い精度を達成でき、時には異なる領域に対する関連する変数の集合を劇的に異なる形で明らかにする。
関連論文リスト
- A Domain Decomposition-Based CNN-DNN Architecture for Model Parallel Training Applied to Image Recognition Problems [0.0]
モデル並列トレーニング戦略を自然にサポートする新しいCNN-DNNアーキテクチャを提案する。
提案手法は,グローバルモデルと比較して,必要なトレーニング時間を著しく短縮することができる。
その結果,提案手法は,基礎となる分類問題の精度向上にも有効であることが示唆された。
論文 参考訳(メタデータ) (2023-02-13T18:06:59Z) - What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - Training or Architecture? How to Incorporate Invariance in Neural
Networks [14.162739081163444]
本稿では,グループ行動に関して,ネットワークアーキテクチャを確実に不変化する手法を提案する。
簡単に言えば、実際のネットワークにデータを送る前に、可能なトランスフォーメーションを“無効化”するつもりです。
このような手法の特性を解析し、等変ネットワークに拡張し、その利点を頑健さと計算効率の両面からいくつかの数値例で示す。
論文 参考訳(メタデータ) (2021-06-18T10:31:00Z) - Spatial Dependency Networks: Neural Layers for Improved Generative Image
Modeling [79.15521784128102]
画像生成装置(デコーダ)を構築するための新しいニューラルネットワークを導入し、可変オートエンコーダ(VAE)に適用する。
空間依存ネットワーク(sdns)では、ディープニューラルネットの各レベルにおける特徴マップを空間的にコヒーレントな方法で計算する。
空間依存層による階層型vaeのデコーダの強化は密度推定を大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-03-16T07:01:08Z) - Explainable AI for ML jet taggers using expert variables and layerwise
relevance propagation [0.0]
ジェットサブ構造タグ付け技術のディープニューラルネットワーク(DNN)から、意思決定情報を抽出し、理解するためのフレームワークが提示される。
一般的な方法は、入力を拡大する専門家変数("eXpert AUGmented"変数またはXAUG変数)を提供し、ネットワークにレイヤワイド伝搬(LRP)を適用することである。
ネットワークをXAUG変数を追加・追加せずに比較した結果,XAUG変数は動作の解釈に利用でき,低レベル特徴と組み合わせて識別能力を高めることができ,場合によっては分類器の動作を完全に捉えることができる。
論文 参考訳(メタデータ) (2020-11-26T20:36:08Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Multigrid-in-Channels Architectures for Wide Convolutional Neural
Networks [6.929025509877642]
本稿では,標準畳み込みニューラルネットワーク(CNN)のチャネル数に関して,パラメータ数の2次成長に対処するマルチグリッド手法を提案する。
教師付き画像分類の例では、この戦略を残差ネットワークに適用し、MobileNetV2は精度に悪影響を及ぼすことなくパラメータ数を著しく削減している。
論文 参考訳(メタデータ) (2020-06-11T20:28:36Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。