論文の概要: Multi-layered Discriminative Restricted Boltzmann Machine with Untrained
Probabilistic Layer
- arxiv url: http://arxiv.org/abs/2210.15434v1
- Date: Thu, 27 Oct 2022 13:56:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 12:27:10.828242
- Title: Multi-layered Discriminative Restricted Boltzmann Machine with Untrained
Probabilistic Layer
- Title(参考訳): 未訓練確率層を有する多層判別制限ボルツマン機
- Authors: Yuri Kanno and Muneki Yasuda
- Abstract要約: 極端な学習機械(ELM)は、訓練されていないパラメータを持つ3層フィードフォワードニューラルネットワークである。
ELMに触発されて,確率ELM層と呼ばれる確率的未学習層を提案する。
分類問題を解くために、識別限定ボルツマンマシン(DRBM)と組み合わせられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: An extreme learning machine (ELM) is a three-layered feed-forward neural
network having untrained parameters, which are randomly determined before
training. Inspired by the idea of ELM, a probabilistic untrained layer called a
probabilistic-ELM (PELM) layer is proposed, and it is combined with a
discriminative restricted Boltzmann machine (DRBM), which is a probabilistic
three-layered neural network for solving classification problems. The proposed
model is obtained by stacking DRBM on the PELM layer. The resultant model
(i.e., multi-layered DRBM (MDRBM)) forms a probabilistic four-layered neural
network. In MDRBM, the parameters in the PELM layer can be determined using
Gaussian-Bernoulli restricted Boltzmann machine. Owing to the PELM layer, MDRBM
obtains a strong immunity against noise in inputs, which is one of the most
important advantages of MDRBM. Numerical experiments using some benchmark
datasets, MNIST, Fashion-MNIST, Urban Land Cover, and CIFAR-10, demonstrate
that MDRBM is superior to other existing models, particularly, in terms of the
noise-robustness property (or, in other words, the generalization property).
- Abstract(参考訳): 極端な学習機械(ELM)は、訓練前にランダムに決定される未訓練パラメータを持つ3層フィードフォワードニューラルネットワークである。
確率的ELM(probabilistic-ELM, PELM)層と呼ばれる確率的未学習層を提案し, 分類問題を解くための確率的3層ニューラルネットワークである識別的制限ボルツマンマシン(DRBM)と組み合わせた。
提案モデルは,PELM層上にDRBMを積み重ねることで得られる。
結果モデル(すなわち多層drbm(mdrbm))は確率的4層ニューラルネットワークを形成する。
MDRBMでは、PELM層のパラメータはガウス・ベルヌーリ制限ボルツマンマシンを用いて決定できる。
PELM層により、MDRBMは入力のノイズに対する強い免疫を得るが、これはMDRBMの最も重要な利点の1つである。
いくつかのベンチマークデータセット(MNIST、Fashion-MNIST、Urban Land Cover、CIFAR-10)を用いた数値実験では、MDRBMは他の既存のモデルよりも優れていることが示されている。
関連論文リスト
- Effective Non-Random Extreme Learning Machine [0.0]
本稿では、回帰タスクのための新しい拡張学習アルゴリズム、Effective Non-Random ELM(ENR-ELM)を提案する。
提案手法は,基本関数や投影などの信号処理の概念をEMMフレームワークに組み込む。
合成データと実データの両方を用いた実験結果から,本手法は従来のEMMの課題を克服し,比較可能な予測性能を維持していることが示された。
論文 参考訳(メタデータ) (2024-11-25T09:42:42Z) - Monotone deep Boltzmann machines [86.50247625239406]
ディープボルツマンマシン(Deep Boltzmann Machine、DBM)は、双対エネルギー関数によって制御される多層確率モデルである。
我々は,各層で任意の自己接続が可能な新しい制限モデルであるモノトンDBMを開発した。
アクティベーションの特定の選択が、変動平均場解を与える固定点反復をもたらすことを示す。
論文 参考訳(メタデータ) (2023-07-11T03:02:44Z) - Human Trajectory Forecasting with Explainable Behavioral Uncertainty [63.62824628085961]
人間の軌道予測は人間の行動を理解し予測し、社会ロボットから自動運転車への応用を可能にする。
モデルフリー手法は予測精度が優れているが説明可能性に欠ける一方、モデルベース手法は説明可能性を提供するが、よく予測できない。
BNSP-SFMは,11種類の最先端手法と比較して,予測精度を最大50%向上することを示す。
論文 参考訳(メタデータ) (2023-07-04T16:45:21Z) - Neural Boltzmann Machines [2.179313476241343]
条件生成モデルは、コンテキスト情報を入力として使用して、新しい想像的出力を生成することができる。
条件付き制限ボルツマンマシン(英: Conditional Restricted Boltzmann Machines, CRBM)は、ノイズの多い離散データや連続データをモデル化するのに特に有効であることが証明された条件付き生成モデルの一種である。
CRBMパラメータのそれぞれを、条件入力の関数として許容される独自のニューラルネットワークに変換することで、CRBMを一般化する。
論文 参考訳(メタデータ) (2023-05-15T04:03:51Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Intelligent Trajectory Design for RIS-NOMA aided Multi-robot
Communications [59.34642007625687]
目的は,ロボットの軌道とNOMA復号命令を協調的に最適化することで,マルチロボットシステムにおける全軌道の総和率を最大化することである。
ARIMAモデルとDouble Deep Q-network (D$3$QN)アルゴリズムを組み合わせたML方式を提案する。
論文 参考訳(メタデータ) (2022-05-03T17:14:47Z) - A new perspective on probabilistic image modeling [92.89846887298852]
本稿では,密度推定,サンプリング,トラクタブル推論が可能な画像モデリングのための新しい確率論的手法を提案する。
DCGMMは、CNNのように、ランダムな初期条件からSGDによってエンドツーエンドに訓練することができる。
本研究は,近年のPCおよびSPNモデルと,推論,分類,サンプリングの観点から比較した。
論文 参考訳(メタデータ) (2022-03-21T14:53:57Z) - A deep learning based surrogate model for stochastic simulators [0.0]
シミュレータのための深層学習に基づく代理モデルを提案する。
我々は損失関数として条件付き最大平均誤差(CMMD)を利用する。
その結果,提案手法の優れた性能が得られた。
論文 参考訳(メタデータ) (2021-10-24T11:38:47Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z) - Highly-scalable stochastic neuron based on Ovonic Threshold Switch (OTS)
and its applications in Restricted Boltzmann Machine (RBM) [0.2529563359433233]
我々は、Ovonic Threshold Switch(OTS)に基づく高度に拡張可能なニューロンデバイスを提案する。
真の乱数発生器(TRNG)の候補として、国立標準技術研究所(NIST)統計テストスイートの16テストのうち15テストに合格している。
ノイズで汚染された画像を用いて画像の再構成が成功し、ノイズを除去した画像が得られる。
論文 参考訳(メタデータ) (2020-10-21T13:20:01Z) - Probabilistic Object Classification using CNN ML-MAP layers [0.0]
ネットワークのLogit層で計算された分布に基づくCNN確率的手法を提案する。
この新しいアプローチは、SoftMaxと比較して有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-05-29T13:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。