論文の概要: Data-driven discovery of interpretable causal relations for deep
learning material laws with uncertainty propagation
- arxiv url: http://arxiv.org/abs/2105.09980v1
- Date: Thu, 20 May 2021 18:25:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-29 17:55:36.541785
- Title: Data-driven discovery of interpretable causal relations for deep
learning material laws with uncertainty propagation
- Title(参考訳): 不確実性伝播を伴うディープラーニング教材法則の解釈型因果関係の探索
- Authors: Xiao Sun, Bahador Bahmani, Nikolaos N. Vlassis, WaiChing Sun, Yanxun
Xu
- Abstract要約: まず、有向非巡回グラフ(DAG)を用いて、各代表体積要素(RVE)シミュレーションで測定された時系列データ間の因果関係を推定する因果関係探索アルゴリズムを開発した。
複数のRVEシミュレーションから推定される複数の因果関係を推定し,不確実性の定量化のためのベイズ近似としてドロップアウト層を備えたディープニューラルネットワークを用いて,導出した因果グラフに予測を伝搬する。
共用材料法における因果発見手法の精度と堅牢性を検討するために, 代表的な2つの数値例(摩擦界面のトラクション分離法, 粒状アセンブルのエラスト塑性モデル)を選択した。
- 参考スコア(独自算出の注目度): 1.9159669270530113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a computational framework that generates ensemble
predictive mechanics models with uncertainty quantification (UQ). We first
develop a causal discovery algorithm to infer causal relations among
time-history data measured during each representative volume element (RVE)
simulation through a directed acyclic graph (DAG). With multiple plausible sets
of causal relationships estimated from multiple RVE simulations, the
predictions are propagated in the derived causal graph while using a deep
neural network equipped with dropout layers as a Bayesian approximation for
uncertainty quantification. We select two representative numerical examples
(traction-separation laws for frictional interfaces, elastoplasticity models
for granular assembles) to examine the accuracy and robustness of the proposed
causal discovery method for the common material law predictions in civil
engineering applications.
- Abstract(参考訳): 本稿では,不確実量化(UQ)を伴うアンサンブル予測力学モデルを生成する計算フレームワークを提案する。
まず,各代表体積要素(RVE)シミュレーションで測定された時系列データ間の因果関係を,有向非巡回グラフ(DAG)を用いて推定する因果関係探索アルゴリズムを開発した。
複数のRVEシミュレーションから推定される複数の因果関係を推定し,不確実性の定量化のためのベイズ近似としてドロップアウト層を備えたディープニューラルネットワークを用いて,導出した因果グラフに予測を伝搬する。
土木工学応用における共通材料法予測のための因果発見手法の精度と堅牢性を検討するために, 代表的な2つの数値例(摩擦界面のトラクション分離法, 粒状アセンブルのエラスト塑性モデル)を選択した。
関連論文リスト
- Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Counterfactual Explanations of Black-box Machine Learning Models using Causal Discovery with Applications to Credit Rating [4.200230734911261]
いくつかのXAIモデルは、予測モデルのインプット・アウトプット関係と特徴間の依存関係を調べることによって、モデルを説明するために因果関係を考慮する。
これらのモデルの大半は、因果グラフが知られていると仮定して、反事実確率に基づく説明に基づいている。
本研究では、因果グラフが知られている制約を緩和する新しいXAIフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T02:26:24Z) - Sample, estimate, aggregate: A recipe for causal discovery foundation models [28.116832159265964]
我々は、古典因果探索アルゴリズムの出力からより大きな因果グラフを予測することを学ぶ教師付きモデルを訓練する。
我々のアプローチは、古典的手法の出力における典型的なエラーがデータセット間で比較できるという観察によって実現されている。
実データおよび合成データに関する実験では、このモデルが不特定性や分布シフトに直面して高い精度を維持することを示した。
論文 参考訳(メタデータ) (2024-02-02T21:57:58Z) - Bayesian Causal Inference with Gaussian Process Networks [1.7188280334580197]
本稿では,ガウス過程ネットワークモデルにおける仮説的介入の効果のベイズ推定の問題について考察する。
本稿では,ネットワーク全体の介入の効果をシミュレートし,下流変数に対する介入の効果を伝播させることにより,GPNに対する因果推論を行う方法について述べる。
両フレームワークを既知の因果グラフのケースを超えて拡張し,マルコフ連鎖モンテカルロ法による因果構造の不確実性を取り入れた。
論文 参考訳(メタデータ) (2024-02-01T14:39:59Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - A Generative Modeling Framework for Inferring Families of Biomechanical
Constitutive Laws in Data-Sparse Regimes [0.15658704610960567]
本稿では,データスパース体制における関係の家族を効率的に推定する新しい手法を提案する。
機能的先行概念に着想を得て,ニューラル演算子をジェネレータとし,完全接続ネットワークを敵判別器として組み込んだ生成ネットワーク(GAN)を開発した。
論文 参考訳(メタデータ) (2023-05-04T22:07:27Z) - Mixed Effects Neural ODE: A Variational Approximation for Analyzing the
Dynamics of Panel Data [50.23363975709122]
パネルデータ解析に(固定・ランダムな)混合効果を取り入れたME-NODEという確率モデルを提案する。
我々は、Wong-Zakai定理によって提供されるSDEの滑らかな近似を用いて、我々のモデルを導出できることを示す。
次に、ME-NODEのためのエビデンスに基づく下界を導出し、(効率的な)トレーニングアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-02-18T22:41:51Z) - Causality and Generalizability: Identifiability and Learning Methods [0.0]
この論文は、因果効果の推定、因果構造学習、および分布的に堅牢な予測方法に関する研究領域に寄与する。
本稿では,データ依存平均二乗予測誤差正規化を用いた機器変数設定における線形・非線形因果関係推定器について述べる。
本稿では,介入誘起分布に関する分布ロバスト性に関する一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2021-10-04T13:12:11Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。