論文の概要: Bayesian Reasoning with Trained Neural Networks
- arxiv url: http://arxiv.org/abs/2001.11031v3
- Date: Tue, 1 Jun 2021 09:55:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 20:36:07.489693
- Title: Bayesian Reasoning with Trained Neural Networks
- Title(参考訳): ニューラルネットワークを用いたベイズ推論
- Authors: Jakob Knollm\"uller and Torsten En{\ss}lin
- Abstract要約: トレーニングされたニューラルネットワークを用いてベイズ推論を行い、初期スコープ外のタスクを解決する方法を示す。
深層生成モデルは事前知識を提供し、分類/回帰ネットワークは制約を課す。
既にトレーニング済みのネットワーク上に構築されたアプローチと、対処可能な質問は、利用可能なネットワークの数とともに、極端に指数関数的に増加しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We showed how to use trained neural networks to perform Bayesian reasoning in
order to solve tasks outside their initial scope. Deep generative models
provide prior knowledge, and classification/regression networks impose
constraints. The tasks at hand were formulated as Bayesian inference problems,
which we approximately solved through variational or sampling techniques. The
approach built on top of already trained networks, and the addressable
questions grew super-exponentially with the number of available networks. In
its simplest form, the approach yielded conditional generative models. However,
multiple simultaneous constraints constitute elaborate questions. We compared
the approach to specifically trained generators, showed how to solve riddles,
and demonstrated its compatibility with state-of-the-art architectures.
- Abstract(参考訳): 我々は、トレーニングされたニューラルネットワークを用いてベイズ推論を行い、初期スコープ外のタスクを解決する方法を示した。
深層生成モデルは事前知識を提供し、分類/回帰ネットワークは制約を課す。
手前のタスクはベイズ推論問題として定式化され、変分法やサンプリング法によってほぼ解決した。
既にトレーニング済みのネットワーク上に構築されたアプローチと、対応可能な質問は、利用可能なネットワークの数によって超指数的に増加した。
最も単純な形で、アプローチは条件付き生成モデルを生み出した。
しかし、複数の同時制約は精巧な問題を構成する。
我々は、このアプローチを特別に訓練されたジェネレータと比較し、謎を解く方法を示し、最先端アーキテクチャとの互換性を実証した。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - On the training and generalization of deep operator networks [11.159056906971983]
深層演算ネットワーク(DeepONets)のための新しいトレーニング手法を提案する。
DeepONetsは2つのサブネットワークによって構築されている。
入力データの観点から幅誤差推定値を確立する。
論文 参考訳(メタデータ) (2023-09-02T21:10:45Z) - Are Deep Neural Networks SMARTer than Second Graders? [85.60342335636341]
6~8歳児を対象としたビジュオ言語パズルの解法において,ニューラルネットワークの抽象化,推論,一般化能力の評価を行った。
我々のデータセットは101のユニークなパズルで構成されており、各パズルは絵の質問で構成されており、それらの解には算術、代数学、空間推論を含むいくつかの基本的なスキルが混在している必要がある。
実験により、強力なディープモデルは教師付き設定でパズルに合理的な性能を与えるが、一般化のために解析するとランダムな精度よりは良くないことが明らかになった。
論文 参考訳(メタデータ) (2022-12-20T04:33:32Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - The Multiple Subnetwork Hypothesis: Enabling Multidomain Learning by
Isolating Task-Specific Subnetworks in Feedforward Neural Networks [0.0]
我々は,未使用の重み付きネットワークがその後のタスクを学習するための方法論とネットワーク表現構造を同定する。
提案手法を用いてトレーニングされたネットワークは,タスクのパフォーマンスを犠牲にすることなく,あるいは破滅的な忘れを伴わずに,複数のタスクを学習できることを示す。
論文 参考訳(メタデータ) (2022-07-18T15:07:13Z) - Split personalities in Bayesian Neural Networks: the case for full
marginalisation [0.0]
ベイズニューラルネットワークの真の後部分布は、非常に多様であることを示す。
ネットワークの分割されたパーソナリティをキャプチャできる適切なベイズサンプリングツールを使用して、すべての後部モードを完全に切り離すだけでよい。
論文 参考訳(メタデータ) (2022-05-23T09:24:37Z) - Path Regularization: A Convexity and Sparsity Inducing Regularization
for Parallel ReLU Networks [75.33431791218302]
本稿では,ディープニューラルネットワークのトレーニング問題について検討し,最適化環境に隠された凸性を明らかにするための解析的アプローチを提案する。
我々は、標準のディープ・ネットワークとResNetを特別なケースとして含む、ディープ・パラレルなReLUネットワークアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2021-10-18T18:00:36Z) - Boundary Attributions Provide Normal (Vector) Explanations [27.20904776964045]
境界属性(BA)はこの問題に対処するための新しい説明法である。
BAは、ターゲット入力に対する局所的な決定境界の正規ベクトルを計算する。
ランダム化された平滑化ネットワークまたは堅牢に訓練されたネットワークのBAは、標準ネットワークよりも非境界アトリビューション方法にはるかに近い。
論文 参考訳(メタデータ) (2021-03-20T22:36:39Z) - Thinking Deeply with Recurrence: Generalizing from Easy to Hard
Sequential Reasoning Problems [51.132938969015825]
我々は、リカレントネットワークは、非リカレントディープモデルの振る舞いを詳細にエミュレートする能力を有することを観察する。
再帰ステップの少ない単純な迷路を解くように訓練された再帰ネットワークは、推論中に追加の繰り返しを実行するだけで、より複雑な問題を解決することができる。
論文 参考訳(メタデータ) (2021-02-22T14:09:20Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。