論文の概要: Using the Projected Belief Network at High Dimensions
- arxiv url: http://arxiv.org/abs/2204.12922v1
- Date: Mon, 25 Apr 2022 19:54:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 06:13:32.108320
- Title: Using the Projected Belief Network at High Dimensions
- Title(参考訳): 高次元における投影的信念ネットワークの利用
- Authors: Paul M Baggenstoss
- Abstract要約: 射影信頼ネットワーク (PBN) は層状生成ネットワーク (LGN) である。
音響事象の高次元スペクトログラムの分類と自動符号化に識別整列PBNを適用した。
- 参考スコア(独自算出の注目度): 13.554038901140949
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The projected belief network (PBN) is a layered generative network (LGN) with
tractable likelihood function, and is based on a feed-forward neural network
(FFNN). There are two versions of the PBN: stochastic and deterministic
(D-PBN), and each has theoretical advantages over other LGNs. However,
implementation of the PBN requires an iterative algorithm that includes the
inversion of a symmetric matrix of size M X M in each layer, where M is the
layer output dimension. This, and the fact that the network must be always
dimension-reducing in each layer, can limit the types of problems where the PBN
can be applied. In this paper, we describe techniques to avoid or mitigate
these restrictions and use the PBN effectively at high dimension. We apply the
discriminatively aligned PBN (PBN-DA) to classifying and auto-encoding
high-dimensional spectrograms of acoustic events. We also present the
discriminatively aligned D-PBN for the first time.
- Abstract(参考訳): 予測信頼ネットワーク(PBN)は、求心性を持つ層状生成ネットワーク(LGN)であり、フィードフォワードニューラルネットワーク(FFNN)に基づいている。
PBNには確率的および決定論的(D-PBN)の2つのバージョンがあり、それぞれが他のLGNに対して理論的に有利である。
しかしながら、PBNの実装には、M が層出力次元である各層における M X M の大きさの対称行列の反転を含む反復アルゴリズムが必要である。
ネットワークは常に各層で次元還元されなければならないという事実は、PBNを適用することができる問題の種類を制限することができる。
本稿では,これらの制約を回避あるいは緩和し,PBNを高次元で効果的に利用する手法について述べる。
音響事象の高次元スペクトルの分類と自動符号化にPBN(PBN-DA)を適用した。
また,d-pbnを初めて識別的にアライメントした。
関連論文リスト
- A Discrete Perspective Towards the Construction of Sparse Probabilistic Boolean Networks [3.807361298718093]
スパースPBNを構築するための新しいGreedy Entry removal (GER)アルゴリズムを提案する。
GERは最先端のスパースPBN構築アルゴリズムの中で最高の性能を提供する。
論文 参考訳(メタデータ) (2024-07-16T09:50:04Z) - Projected Belief Networks With Discriminative Alignment for Acoustic
Event Classification: Rivaling State of the Art CNNs [6.062751776009752]
プロジェクテッド信頼ネットワーク(PBN)は、フィードフォワードニューラルネットワーク(FFNN)に基づく抽出可能な可能性関数を持つ生成ネットワークである。
PBNは、前向きに動作するFFNNと後向きに動作する生成ネットワークの2つのネットワークである。
本稿では,PBN,PBN-DA,PBN-DA-HMMを包括的に扱う。
論文 参考訳(メタデータ) (2024-01-20T10:27:04Z) - Sample Complexity of Neural Policy Mirror Descent for Policy
Optimization on Low-Dimensional Manifolds [75.51968172401394]
深部畳み込みニューラルネットワーク(CNN)を用いたNPMDアルゴリズムのサンプル複雑性について検討した。
NPMDの各イテレーションでは、値関数とポリシーの両方をCNNによってうまく近似することができる。
NPMDは状態空間の低次元構造を利用して次元の呪いから逃れることができることを示す。
論文 参考訳(メタデータ) (2023-09-25T07:31:22Z) - Membrane Potential Batch Normalization for Spiking Neural Networks [26.003193122060697]
スパイクニューラルネットワーク(SNN)は最近ますます関心を集めています。
深層モデルの訓練には,SNNで有効なバッチ正規化(BN)手法が提案されている。
我々は,MPBNと呼ばれる膜電位を再び正規化するために,発射関数の前に別のBN層を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:03Z) - Binary Graph Convolutional Network with Capacity Exploration [58.99478502486377]
ネットワークパラメータと入力ノード属性の両方を二項化するバイナリグラフ畳み込みネットワーク(Bi-GCN)を提案する。
我々のBi-GCNは、ネットワークパラメータと入力データの両方で平均31倍のメモリ消費を削減でき、推論速度を平均51倍に加速できる。
論文 参考訳(メタデータ) (2022-10-24T12:05:17Z) - BN-invariant sharpness regularizes the training model to better
generalization [72.97766238317081]
BN下等価ネットワークに対して一貫した値を与えるシャープネス測定法BN-Sharpnessを提案する。
我々はBNシャープネスを用いてトレーニングを正規化し、アルゴリズムを設計し、新しい正規化対象を最小化する。
論文 参考訳(メタデータ) (2021-01-08T10:23:24Z) - Joint Deep Reinforcement Learning and Unfolding: Beam Selection and
Precoding for mmWave Multiuser MIMO with Lens Arrays [54.43962058166702]
離散レンズアレイを用いたミリ波マルチユーザマルチインプット多重出力(MU-MIMO)システムに注目が集まっている。
本研究では、DLA を用いた mmWave MU-MIMO システムのビームプリコーディング行列の共同設計について検討する。
論文 参考訳(メタデータ) (2021-01-05T03:55:04Z) - MimicNorm: Weight Mean and Last BN Layer Mimic the Dynamic of Batch
Normalization [60.36100335878855]
ネットワークトレーニングにおける収束と効率を改善するために,MimicNormという新しい正規化手法を提案する。
我々は、神経核(NTK)理論を利用して、我々の重み付けが活性化を弱め、BN層のようなカオス状態にネットワークを移行することを証明する。
MimicNormは、ResNetsやShuffleNetのような軽量ネットワークなど、さまざまなネットワーク構造に対して同様の精度を実現し、約20%のメモリ消費を削減している。
論文 参考訳(メタデータ) (2020-10-19T07:42:41Z) - Towards Stabilizing Batch Statistics in Backward Propagation of Batch
Normalization [126.6252371899064]
移動平均バッチ正規化(MABN)は,新しい正規化法である。
小バッチの場合,MABNはバニラBNの性能を完全に回復できることを示す。
実験では、ImageNetやCOCOを含む複数のコンピュータビジョンタスクにおけるMABNの有効性を実証した。
論文 参考訳(メタデータ) (2020-01-19T14:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。