論文の概要: Projected Belief Networks With Discriminative Alignment for Acoustic
Event Classification: Rivaling State of the Art CNNs
- arxiv url: http://arxiv.org/abs/2401.11199v1
- Date: Sat, 20 Jan 2024 10:27:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 17:30:05.624134
- Title: Projected Belief Networks With Discriminative Alignment for Acoustic
Event Classification: Rivaling State of the Art CNNs
- Title(参考訳): 音響イベント分類のための識別アライメント付き投影的信念ネットワーク:アートCNNの精度向上
- Authors: Paul M. Baggenstoss, Kevin Wilkinghoff, Felix Govaers, Frank Kurth
- Abstract要約: プロジェクテッド信頼ネットワーク(PBN)は、フィードフォワードニューラルネットワーク(FFNN)に基づく抽出可能な可能性関数を持つ生成ネットワークである。
PBNは、前向きに動作するFFNNと後向きに動作する生成ネットワークの2つのネットワークである。
本稿では,PBN,PBN-DA,PBN-DA-HMMを包括的に扱う。
- 参考スコア(独自算出の注目度): 6.062751776009752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The projected belief network (PBN) is a generative stochastic network with
tractable likelihood function based on a feed-forward neural network (FFNN).
The generative function operates by "backing up" through the FFNN. The PBN is
two networks in one, a FFNN that operates in the forward direction, and a
generative network that operates in the backward direction. Both networks
co-exist based on the same parameter set, have their own cost functions, and
can be separately or jointly trained. The PBN therefore has the potential to
possess the best qualities of both discriminative and generative classifiers.
To realize this potential, a separate PBN is trained on each class, maximizing
the generative likelihood function for the given class, while minimizing the
discriminative cost for the FFNN against "all other classes". This technique,
called discriminative alignment (PBN-DA), aligns the contours of the likelihood
function to the decision boundaries and attains vastly improved classification
performance, rivaling that of state of the art discriminative networks. The
method may be further improved using a hidden Markov model (HMM) as a component
of the PBN, called PBN-DA-HMM. This paper provides a comprehensive treatment of
PBN, PBN-DA, and PBN-DA-HMM. In addition, the results of two new classification
experiments are provided. The first experiment uses air-acoustic events, and
the second uses underwater acoustic data consisting of marine mammal calls. In
both experiments, PBN-DA-HMM attains comparable or better performance as a
state of the art CNN, and attain a factor of two error reduction when combined
with the CNN.
- Abstract(参考訳): プロジェクテッド信念ネットワーク(PBN)は、フィードフォワードニューラルネットワーク(FFNN)に基づく、抽出可能な確率関数を持つ生成確率ネットワークである。
生成機能はFFNNを通して"バックアップ"することで機能する。
PBNは、前向きに動作するFFNNと後向きに動作する生成ネットワークの2つのネットワークである。
両方のネットワークは同じパラメータセットに基づいて共存し、それぞれのコスト関数を持ち、個別または共同でトレーニングすることができる。
したがって、PBNは識別分類器と生成分類器の両方の最高の性質を持つ可能性がある。
この可能性を実現するために、各クラスで個別のPBNを訓練し、各クラスに対する生成可能性関数を最大化するとともに、FFNNの「他のすべてのクラス」に対する差別コストを最小化する。
この手法は判別アライメント (pbn-da) と呼ばれ、確率関数の輪郭を決定境界に合わせ、アート判別ネットワークの状況に匹敵する非常に改善された分類性能を達成する。
この方法は、PBN-DA-HMMと呼ばれるPBNのコンポーネントとして隠れマルコフモデル(HMM)を用いてさらに改善することができる。
本稿では,PBN,PBN-DA,PBN-DA-HMMを包括的に扱う。
また、2つの新しい分類実験の結果も提示された。
最初の実験は空気音響イベントを使用し、2回目は海洋哺乳類の鳴き声からなる水中音響データを使用する。
どちらの実験でも、PBN-DA-HMMはアートCNNの状態を同等またはより良い性能で達成し、CNNと組み合わせると2つのエラー低減係数が得られる。
関連論文リスト
- BN-SCAFFOLD: controlling the drift of Batch Normalization statistics in Federated Learning [2.563180814294141]
機械学習(ML)モデルを分散的にトレーニングするための学習パラダイムとして、フェデレートラーニング(FL)が注目を集めている。
バッチ正規化(BN)はディープニューラルネットワーク(DNN)においてユビキタスである
BNは異種FLにおけるDNNの性能を阻害すると報告されている。
BN-DNN設定における分散還元アルゴリズムの収束を解析するための統一理論フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-04T09:53:20Z) - DCNN: Dual Cross-current Neural Networks Realized Using An Interactive Deep Learning Discriminator for Fine-grained Objects [48.65846477275723]
本研究では、微細な画像分類の精度を向上させるために、新しい二重電流ニューラルネットワーク(DCNN)を提案する。
弱い教師付き学習バックボーンモデルを構築するための新しい特徴として、(a)異種データの抽出、(b)特徴マップの解像度の維持、(c)受容領域の拡大、(d)グローバル表現と局所特徴の融合などがある。
論文 参考訳(メタデータ) (2024-05-07T07:51:28Z) - Unified Batch Normalization: Identifying and Alleviating the Feature
Condensation in Batch Normalization and a Unified Framework [55.22949690864962]
バッチ正規化(BN)は、現代のニューラルネットワーク設計において欠かせない技術となっている。
UBN(Unified Batch Normalization)と呼ばれる2段階統合フレームワークを提案する。
UBNは異なる視覚バックボーンと異なる視覚タスクのパフォーマンスを大幅に向上させる。
論文 参考訳(メタデータ) (2023-11-27T16:41:31Z) - Why Batch Normalization Damage Federated Learning on Non-IID Data? [34.06900591666005]
フェデレートラーニング(FL)では、エッジクライアントのプライバシを保護しながら、ネットワークエッジでディープニューラルネットワーク(DNN)モデルをトレーニングする。
バッチ正規化(BN)は、訓練を加速し、能力一般化を改善するためのシンプルで効果的な手段とみなされてきた。
最近の研究では、BNは非i.d.データの存在下でFLの性能を著しく損なうことが示されている。
非i.d.データの下で、BNの局所的および大域的統計パラメータ間のミスマッチが局所的および大域的モデル間の勾配ずれを引き起こすことを示す最初の収束解析を提示する。
論文 参考訳(メタデータ) (2023-01-08T05:24:12Z) - Using the Projected Belief Network at High Dimensions [13.554038901140949]
射影信頼ネットワーク (PBN) は層状生成ネットワーク (LGN) である。
音響事象の高次元スペクトログラムの分類と自動符号化に識別整列PBNを適用した。
論文 参考訳(メタデータ) (2022-04-25T19:54:52Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Training Algorithm Matters for the Performance of Neural Network
Potential [4.774810604472842]
適応モーメント推定アルゴリズム(Adam)と拡張カルマンフィルタアルゴリズム(EKF)の2つの人気トレーニングアルゴリズムの性能を比較した。
その結果,EKFで訓練したNNPは,Adamと比較して伝達性が高く,学習率に敏感ではないことがわかった。
論文 参考訳(メタデータ) (2021-09-08T16:48:33Z) - "BNN - BN = ?": Training Binary Neural Networks without Batch
Normalization [92.23297927690149]
バッチ正規化(BN)は、最先端のバイナリニューラルネットワーク(BNN)に不可欠な重要なファシリテータである
BNNのトレーニングに彼らのフレームワークを拡張し、BNNのトレーニングや推論体制からBNを除去できることを初めて実証します。
論文 参考訳(メタデータ) (2021-04-16T16:46:57Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - The Projected Belief Network Classfier : both Generative and
Discriminative [13.554038901140949]
射影信頼ネットワーク (PBN) は、抽出可能な可能性関数を持つ層状生成ネットワークである。
本稿では,完全識別性と完全生成性を有する畳み込み型PBNを構築した。
論文 参考訳(メタデータ) (2020-08-14T16:00:54Z) - Attentive WaveBlock: Complementarity-enhanced Mutual Networks for
Unsupervised Domain Adaptation in Person Re-identification and Beyond [97.25179345878443]
本稿では,新しい軽量モジュールであるAttentive WaveBlock (AWB)を提案する。
AWBは相互学習の二重ネットワークに統合され、相互学習の相補性を高め、擬似ラベルのノイズをさらに抑えることができる。
実験により, 提案手法は, 複数のUDA人物再識別タスクを大幅に改善し, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2020-06-11T15:40:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。