論文の概要: Neural Bayesian Network Understudy
- arxiv url: http://arxiv.org/abs/2211.08243v1
- Date: Tue, 15 Nov 2022 15:56:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 15:29:06.908385
- Title: Neural Bayesian Network Understudy
- Title(参考訳): ニューラルネットワークの基礎
- Authors: Paloma Rabaey, Cedric De Boom, Thomas Demeester
- Abstract要約: ニューラルネットワークは条件付き確率を出力するように訓練でき、ベイズネットワークとほぼ同じ機能を提供する。
ニューラルネットワークに与えられた因果構造から推定される独立関係を符号化する2つのトレーニング戦略を提案する。
- 参考スコア(独自算出の注目度): 13.28673601999793
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian Networks may be appealing for clinical decision-making due to their
inclusion of causal knowledge, but their practical adoption remains limited as
a result of their inability to deal with unstructured data. While neural
networks do not have this limitation, they are not interpretable and are
inherently unable to deal with causal structure in the input space. Our goal is
to build neural networks that combine the advantages of both approaches.
Motivated by the perspective to inject causal knowledge while training such
neural networks, this work presents initial steps in that direction. We
demonstrate how a neural network can be trained to output conditional
probabilities, providing approximately the same functionality as a Bayesian
Network. Additionally, we propose two training strategies that allow encoding
the independence relations inferred from a given causal structure into the
neural network. We present initial results in a proof-of-concept setting,
showing that the neural model acts as an understudy to its Bayesian Network
counterpart, approximating its probabilistic and causal properties.
- Abstract(参考訳): ベイジアンネットワークは因果的知識を取り入れた臨床的な意思決定を訴えるかもしれないが、その実践的採用は構造化されていないデータを扱うことができないために限られている。
ニューラルネットワークにはこのような制限はないが、解釈可能ではなく、本質的には入力空間の因果構造を扱うことができない。
私たちの目標は、両方のアプローチの利点を組み合わせたニューラルネットワークを構築することです。
このようなニューラルネットワークのトレーニング中に因果知識を注入する視点によって、この研究は、その方向への最初のステップを示す。
ニューラルネットワークをトレーニングして条件付き確率を出力する方法を示し,ベイズ型ネットワークとほぼ同等の機能を提供する。
さらに,与えられた因果構造から推定される独立関係をニューラルネットワークにエンコードする2つの学習戦略を提案する。
まず,概念実証セットにおいて,ニューラルモデルがベイジアンネットワークのそれに対して,その確率的および因果的性質を近似して,研究対象として作用することを示す。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Consistency of Neural Networks with Regularization [0.0]
本稿では,ニューラルネットワークの規則化による一般的な枠組みを提案し,その一貫性を実証する。
双曲関数(Tanh)と整形線形単位(ReLU)の2種類の活性化関数が検討されている。
論文 参考訳(メタデータ) (2022-06-22T23:33:39Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Bayesian Neural Networks: Essentials [0.6091702876917281]
複雑なため、ベイズニューラルネットワークを理解し、設計し、訓練するのは簡単ではない。
ディープニューラルネットワークは、多数の連続するレイヤの不確実性を考慮するために、冗長でコストがかかる。
ハイブリッドベイズニューラルネットワーク(英語版)は、ネットワーク内に法的に位置する確率的層がほとんどないが、実用的な解決策を提供する。
論文 参考訳(メタデータ) (2021-06-22T13:54:17Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - A biologically plausible neural network for local supervision in
cortical microcircuits [17.00937011213428]
我々は、明示的なエラーやバックプロパゲーションを避けるニューラルネットワークを訓練するためのアルゴリズムを導出する。
我々のアルゴリズムは、大脳皮質の接続構造や学習規則に顕著な類似性を持つニューラルネットワークにマップする。
論文 参考訳(メタデータ) (2020-11-30T17:35:22Z) - Bayesian Neural Networks [0.0]
ニューラルネットワークによる予測におけるエラーを原理的に得る方法を示し、これらのエラーを特徴付ける2つの方法を提案する。
さらに、これらの2つのメソッドが実際に実施される際に、重大な落とし穴を持つ方法についても説明します。
論文 参考訳(メタデータ) (2020-06-02T09:43:00Z) - A neural network model of perception and reasoning [0.0]
生物学的に一貫した構成原理の単純なセットが神経ネットワークにこれらの能力を与えることを示す。
我々はこれらの原理を、最適化の代わりに概念構築に基づく新しい機械学習アルゴリズムで実装し、説明可能なニューロン活動で推論されるディープニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-02-26T06:26:04Z) - ResiliNet: Failure-Resilient Inference in Distributed Neural Networks [56.255913459850674]
ResiliNetは、分散ニューラルネットワークにおいて物理ノード障害に耐性を持たせるためのスキームである。
Failoutは、ドロップアウトを使用したトレーニング中の物理ノード障害条件をシミュレートし、分散ニューラルネットワークのレジリエンスを改善するように設計されている。
論文 参考訳(メタデータ) (2020-02-18T05:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。