論文の概要: Causal Deep Learning: Causal Capsules and Tensor Transformers
- arxiv url: http://arxiv.org/abs/2301.00314v1
- Date: Sun, 1 Jan 2023 00:47:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 14:18:29.905081
- Title: Causal Deep Learning: Causal Capsules and Tensor Transformers
- Title(参考訳): 因果ディープラーニング:因果カプセルとテンソルトランスフォーマー
- Authors: M. Alex O. Vasilescu
- Abstract要約: 逆因果質問は、マルチ線形射影を実装し、効果の原因を推定するニューラルネットワークで対処される。
我々の前方および逆ニューラルネットワークアーキテクチャは非同期並列計算に適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We derive a set of causal deep neural networks whose architectures are a
consequence of tensor (multilinear) factor analysis. Forward causal questions
are addressed with a neural network architecture composed of causal capsules
and a tensor transformer. The former estimate a set of latent variables that
represent the causal factors, and the latter governs their interaction. Causal
capsules and tensor transformers may be implemented using shallow autoencoders,
but for a scalable architecture we employ block algebra and derive a deep
neural network composed of a hierarchy of autoencoders. An interleaved kernel
hierarchy preprocesses the data resulting in a hierarchy of kernel tensor
factor models. Inverse causal questions are addressed with a neural network
that implements multilinear projection and estimates the causes of effects. As
an alternative to aggressive bottleneck dimension reduction or regularized
regression that may camouflage an inherently underdetermined inverse problem,
we prescribe modeling different aspects of the mechanism of data formation with
piecewise tensor models whose multilinear projections are well-defined and
produce multiple candidate solutions. Our forward and inverse neural network
architectures are suitable for asynchronous parallel computation.
- Abstract(参考訳): アーキテクチャがテンソル(多重線形)因子分析の結果である因果深いニューラルネットワークの集合を導出する。
前方因果問題には因果カプセルとテンソルトランスフォーマーで構成されるニューラルネットワークアーキテクチャが対応している。
前者は因果因子を表す潜在変数の集合を推定し、後者はそれらの相互作用を支配する。
因果カプセルとテンソルトランスフォーマーは浅いオートエンコーダを使って実装できるが、スケーラブルなアーキテクチャではブロック代数を採用し、オートエンコーダの階層からなるディープニューラルネットワークを導出する。
インターリーブされたカーネル階層は、カーネルテンソル因子モデルの階層となるデータを前処理する。
逆因果質問は、マルチ線形射影を実装し、効果の原因を推定するニューラルネットワークで対処される。
本質的に不確定な逆問題をカモフラージュする攻撃的ボトルネック次元縮小や正規化回帰の代替として,多重線形射影が十分に定義され,複数の候補解を生成する区分テンソルモデルを用いて,データ形成機構の異なる側面のモデリングを規定する。
我々の前方および逆ニューラルネットワークアーキテクチャは非同期並列計算に適している。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - A Spectral Theory of Neural Prediction and Alignment [8.65717258105897]
我々は、回帰からモデルと対象のスペクトル特性への一般化誤差を関連づける最近の理論的枠組みを用いる。
我々は、視覚的皮質活動を予測するディープニューラルネットワークを多数テストし、回帰によって測定された低ニューラルネットワーク予測誤差をもたらす複数のタイプのジオメトリーが存在することを示す。
論文 参考訳(メタデータ) (2023-09-22T12:24:06Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - A predictive physics-aware hybrid reduced order model for reacting flows [65.73506571113623]
反応流問題の解法として,新しいハイブリッド型予測次数モデル (ROM) を提案する。
自由度は、数千の時間的点から、対応する時間的係数を持ついくつかのPODモードへと減少する。
時間係数を予測するために、2つの異なるディープラーニングアーキテクチャがテストされている。
論文 参考訳(メタデータ) (2023-01-24T08:39:20Z) - Modeling Structure with Undirected Neural Networks [20.506232306308977]
任意の順序で実行できる計算を指定するためのフレキシブルなフレームワークである、非指向型ニューラルネットワークを提案する。
さまざまなタスクにおいて、非構造的かつ構造化された非指向型ニューラルアーキテクチャの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-08T10:06:51Z) - A Sparse Coding Interpretation of Neural Networks and Theoretical
Implications [0.0]
深層畳み込みニューラルネットワークは、様々なコンピュータビジョンタスクにおいて前例のない性能を達成した。
本稿では、ReLUアクティベーションを持つニューラルネットワークのスパース符号化解釈を提案する。
正規化やプーリングなしに完全な畳み込みニューラルネットワークを導出する。
論文 参考訳(メタデータ) (2021-08-14T21:54:47Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Non-asymptotic Excess Risk Bounds for Classification with Deep
Convolutional Neural Networks [6.051520664893158]
本稿では,一般の深層畳み込みニューラルネットワークを用いたバイナリ分類の問題を考える。
我々は、入力データ次元と他のモデルパラメータの観点から、リスク境界の要素を定義する。
CNNを用いた分類手法は次元の呪いを回避できることを示す。
論文 参考訳(メタデータ) (2021-05-01T15:55:04Z) - Going beyond p-convolutions to learn grayscale morphological operators [64.38361575778237]
p-畳み込み層と同じ原理に基づく2つの新しい形態層を提示する。
本研究では, p-畳み込み層と同じ原理に基づく2つの新しい形態層を示す。
論文 参考訳(メタデータ) (2021-02-19T17:22:16Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。