論文の概要: Continuous Indeterminate Probability Neural Network
- arxiv url: http://arxiv.org/abs/2303.12964v1
- Date: Thu, 23 Mar 2023 00:11:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 16:09:59.074988
- Title: Continuous Indeterminate Probability Neural Network
- Title(参考訳): 連続不確定確率ニューラルネットワーク
- Authors: Tao Yang
- Abstract要約: 本稿では,CIPNN-Continuous Indeterminate Probability Neural Networkと呼ばれる一般モデルを提案する。
CIPNNはIPNNをベースとしている。
そこで我々は,N次元潜在変数の1つをデコーダとして用いて,潜在確率変数を可視化する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 4.198538504785438
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper introduces a general model called CIPNN - Continuous Indeterminate
Probability Neural Network, and this model is based on IPNN, which is used for
discrete latent random variables. Currently, posterior of continuous latent
variables is regarded as intractable, with the new theory proposed by IPNN this
problem can be solved. Our contributions are Four-fold. First, we derive the
analytical solution of the posterior calculation of continuous latent random
variables and propose a general classification model (CIPNN). Second, we
propose a general auto-encoder called CIPAE - Continuous Indeterminate
Probability Auto-Encoder, the decoder part is not a neural network and uses a
fully probabilistic inference model for the first time. Third, we propose a new
method to visualize the latent random variables, we use one of N dimensional
latent variables as a decoder to reconstruct the input image, which can work
even for classification tasks, in this way, we can see what each latent
variable has learned. Fourth, IPNN has shown great classification capability,
CIPNN has pushed this classification capability to infinity. Theoretical
advantages are reflected in experimental results.
- Abstract(参考訳): 本稿では、CIPNN-Continuous Indeterminate Probability Neural Networkと呼ばれる一般的なモデルを紹介し、このモデルは離散潜在確率変数に使用されるIPNNに基づいている。
現在、連続潜伏変数の後方は難解であると見なされており、IPNNによって提案された新しい理論はこの問題を解くことができる。
私たちの貢献は4倍です。
まず,連続潜時確率変数の後方計算における解析解を導出し,一般化分類モデル(CIPNN)を提案する。
次に,連続不確定確率オートエンコーダであるcipaeと呼ばれる一般的な自動エンコーダを提案する。
第3に,n次元の潜在変数の1つをデコーダとして使用して入力画像の再構成を行い,分類タスクにおいても機能する手法を提案する。
第4に、IPNNは優れた分類能力を示し、CIPNNはこの分類能力を無限にプッシュした。
理論的利点は実験結果に反映される。
関連論文リスト
- Continual learning with the neural tangent ensemble [0.6137178191238463]
Nパラメータを持つニューラルネットワークは、N分類器の重み付けアンサンブルとして解釈できることを示す。
過去のデータから各専門家の確率と後続確率を導出する。
驚くべきことに、これらの専門家の後方更新はスケール化され、予測される勾配降下と等価であることがわかった。
論文 参考訳(メタデータ) (2024-08-30T16:29:09Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - An interpretable neural network-based non-proportional odds model for
ordinal regression [3.0277213703725767]
本研究では,直交回帰のための解釈可能なニューラルネットワークに基づく非局所奇数モデル(N$3$POM)を提案する。
N$3$POMは、正規回帰に対する従来のアプローチとはいくつかの点で異なる。
論文 参考訳(メタデータ) (2023-03-31T06:40:27Z) - Indeterminate Probability Neural Network [20.993728880886994]
本稿では,古典的確率論の拡張である新しい一般確率論を提案する。
提案するニューラルネットワークフレームワークでは,ニューラルネットワークの出力を確率事象として定義する。
例えば、100の出力ノードを持つモデルでは、100億のカテゴリを分類できる。
論文 参考訳(メタデータ) (2023-03-21T01:57:40Z) - Censored Quantile Regression Neural Networks [24.118509578363593]
本稿では,ニューラルネットワーク(NN)を用いた検閲データに対する量子レグレッションの実施について考察する。
線形モデルで人気のあるアルゴリズムをNNに適用する方法を示す。
我々の主な貢献は、単一のNNによって出力される量子のグリッドを同時に最適化する新しいアルゴリズムである。
論文 参考訳(メタデータ) (2022-05-26T17:10:28Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Doubly Stochastic Variational Inference for Neural Processes with
Hierarchical Latent Variables [37.43541345780632]
本稿では,Double Variational Neural Process (DSVNP) と呼ぶニューラル・プロセス(NP)モデルを提案する。
本モデルでは,大域的潜伏変数と局所潜伏変数を組み合わせて予測を行い,このモデルをいくつかの実験で評価し,多出力回帰における競合予測性能と分類における不確実性評価を示す。
論文 参考訳(メタデータ) (2020-08-21T13:32:12Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。