論文の概要: Causal inference using deep neural networks
- arxiv url: http://arxiv.org/abs/2011.12508v1
- Date: Wed, 25 Nov 2020 04:22:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 02:03:40.513842
- Title: Causal inference using deep neural networks
- Title(参考訳): ディープニューラルネットワークを用いた因果推論
- Authors: Ye Yuan, Xueying Ding, Ziv Bar-Joseph
- Abstract要約: 観測データからの因果推論は多くの科学分野において中心的な問題である。
本稿では,入力ベクトルを画像的表現に変換することで因果相互作用を推論する汎用的なディープラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.434048409031434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal inference from observation data is a core problem in many scientific
fields. Here we present a general supervised deep learning framework that
infers causal interactions by transforming the input vectors to an image-like
representation for every pair of inputs. Given a training dataset we first
construct a normalized empirical probability density distribution (NEPDF)
matrix. We then train a convolutional neural network (CNN) on NEPDFs for
causality predictions. We tested the method on several different simulated and
real world data and compared it to prior methods for causal inference. As we
show, the method is general, can efficiently handle very large datasets and
improves upon prior methods.
- Abstract(参考訳): 観測データからの因果推論は多くの科学分野において中心的な問題である。
本稿では,入力ベクトルを1組の入力に対してイメージライクな表現に変換することで因果相互作用を推論する汎用的なディープラーニングフレームワークを提案する。
トレーニングデータセットが与えられると、まず正規化された経験的確率密度分布(nepdf)行列を構築する。
次に、因果予測のためにNEPDFで畳み込みニューラルネットワーク(CNN)を訓練する。
提案手法を複数のシミュレーションおよび実世界のデータを用いて検証し,それ以前の因果推論手法と比較した。
このように、この手法は一般に、非常に大きなデータセットを効率的に処理でき、以前のメソッドを改善します。
関連論文リスト
- Inferring Data Preconditions from Deep Learning Models for Trustworthy
Prediction in Deployment [25.527665632625627]
デプロイ中に見つからないデータを使って、モデルの予測の信頼性を判断することが重要です。
従来のソフトウェアを特定し検証する既存の方法は、このタスクには不十分である。
本稿では、ニューラルネットワーク計算から導出されるルールを用いて、データ前提条件を推論する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T03:47:18Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Variational Inference on the Final-Layer Output of Neural Networks [3.146069168382982]
本稿では、最終層出力空間(VIFO)における変分推論を行うことにより、両方のアプローチの利点を組み合わせることを提案する。
ニューラルネットワークを用いて確率出力の平均と分散を学習する。
実験により、VIFOは、特に分布データ外において、実行時間と不確実性定量化の観点から良いトレードオフを提供することが示された。
論文 参考訳(メタデータ) (2023-02-05T16:19:01Z) - An unfolding method based on conditional Invertible Neural Networks
(cINN) using iterative training [0.0]
非可逆ニューラルネットワーク(INN)のような生成ネットワークは確率的展開を可能にする。
模擬トレーニングサンプルとデータ間のずれを調整した展開のための反復条件INN(IcINN)を導入する。
論文 参考訳(メタデータ) (2022-12-16T19:00:05Z) - Boosted Dynamic Neural Networks [53.559833501288146]
典型的なEDNNは、ネットワークバックボーンの異なる層に複数の予測ヘッドを持つ。
モデルを最適化するために、これらの予測ヘッドとネットワークバックボーンは、トレーニングデータのバッチ毎にトレーニングされる。
トレーニングと2つのフェーズでのインプットの異なるテストは、トレーニングとデータ分散のテストのミスマッチを引き起こす。
EDNNを勾配強化にインスパイアされた付加モデルとして定式化し、モデルを効果的に最適化するための複数のトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-11-30T04:23:12Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Invertible Neural Networks for Graph Prediction [22.140275054568985]
本研究では,ディープ・インバーチブル・ニューラルネットワークを用いた条件生成について述べる。
私たちの目標は,前処理と後処理の予測と生成を同時に行うことにあるので,エンドツーエンドのトレーニングアプローチを採用しています。
論文 参考訳(メタデータ) (2022-06-02T17:28:33Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Neural Enhanced Belief Propagation on Factor Graphs [85.61562052281688]
グラフィカルモデルは局所依存確率変数の構造的表現である。
最初にグラフニューラルネットワークを拡張してグラフを分解する(FG-GNN)。
そこで我々は,FG-GNNを連立して動作させるハイブリッドモデルを提案する。
論文 参考訳(メタデータ) (2020-03-04T11:03:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。