論文の概要: Analytically Tractable Hidden-States Inference in Bayesian Neural
Networks
- arxiv url: http://arxiv.org/abs/2107.03759v1
- Date: Thu, 8 Jul 2021 11:11:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 17:38:31.530674
- Title: Analytically Tractable Hidden-States Inference in Bayesian Neural
Networks
- Title(参考訳): ベイズニューラルネットワークにおける解析的トラクタブル隠れ状態推定
- Authors: Luong-Ha Nguyen and James-A. Goulet
- Abstract要約: 本稿では, ガウス推定能力(TAGI)を活用して隠れ状態の推測を行う方法を示す。
その新しい側面の一つは、特定の目的を達成するために設計された制約を付与することで隠れた状態を推論することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With few exceptions, neural networks have been relying on backpropagation and
gradient descent as the inference engine in order to learn the model
parameters, because the closed-form Bayesian inference for neural networks has
been considered to be intractable. In this paper, we show how we can leverage
the tractable approximate Gaussian inference's (TAGI) capabilities to infer
hidden states, rather than only using it for inferring the network's
parameters. One novel aspect it allows is to infer hidden states through the
imposition of constraints designed to achieve specific objectives, as
illustrated through three examples: (1) the generation of adversarial-attack
examples, (2) the usage of a neural network as a black-box optimization method,
and (3) the application of inference on continuous-action reinforcement
learning. These applications showcase how tasks that were previously reserved
to gradient-based optimization approaches can now be approached with
analytically tractable inference
- Abstract(参考訳): 少数の例外を除いて、ニューラルネットワークはモデルパラメータを学習するために推論エンジンとしてバックプロパゲーションと勾配降下に依存してきた。
本稿では,ネットワークのパラメータを推定するためにのみ使用するのではなく,抽出可能なガウス推定(TAGI)機能を用いて隠れ状態の推測を行う方法を示す。
特定の目的を達成するために設計された制約を付与することで隠れた状態を推測できる、新たな側面として、(1)敵攻撃例の生成、(2)ブラックボックス最適化法としてのニューラルネットワークの使用、(3)連続行動強化学習への推論の3つの例が挙げられる。
これらのアプリケーションは、これまでグラデーションベースの最適化アプローチに留まっていたタスクが、分析的に扱いやすい推論によってどのようにアプローチできるかを示す。
関連論文リスト
- Compositional Curvature Bounds for Deep Neural Networks [7.373617024876726]
安全クリティカルなアプリケーションにおけるニューラルネットワークの普及を脅かす重要な課題は、敵の攻撃に対する脆弱性である。
本研究では, 連続的に微分可能な深層ニューラルネットワークの2次挙動について検討し, 対向摂動に対する堅牢性に着目した。
ニューラルネットワークの第2微分の証明可能な上界を解析的に計算する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-07T17:50:15Z) - Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - Deep learning neural network for approaching Schr\"odinger problems with
arbitrary two-dimensional confinement [0.0]
本稿では,ニューラルネットワークを用いた自動学習法に基づく2次元シュリンガー方程式へのアプローチを提案する。
これは、解の知識から多くの任意のサンプル問題まで、任意の2次元ポテンシャルに閉じ込められた粒子の基底状態を決定することを目的としている。
論文 参考訳(メタデータ) (2023-04-03T19:48:33Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - An Overview of Uncertainty Quantification Methods for Infinite Neural
Networks [0.0]
無限幅ニューラルネットワークにおける不確実性を定量化する手法について検討する。
我々は、予測の不確実性に対する厳密な閉形式解を得るために、いくつかの等価結果を利用する。
論文 参考訳(メタデータ) (2022-01-13T00:03:22Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Dynamic Inference: A New Approach Toward Efficient Video Action
Recognition [69.9658249941149]
ビデオにおけるアクション認識は近年大きな成功を収めているが、膨大な計算コストのために依然として難しい課題である。
本稿では,異なるビデオの識別可能性の変動を利用して,推論効率を向上させるための一般的な動的推論手法を提案する。
論文 参考訳(メタデータ) (2020-02-09T11:09:56Z) - Approximation smooth and sparse functions by deep neural networks
without saturation [0.6396288020763143]
本稿では,スムーズかつスパースな関数を近似するために,3つの層を隠蔽したディープニューラルネットワークを構築することを目的とする。
構成したディープネットは, 滑らかかつスパースな関数を制御可能な自由パラメータで近似することで, 最適近似率に達することを証明した。
論文 参考訳(メタデータ) (2020-01-13T09:28:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。