論文の概要: Causal inference through multi-stage learning and doubly robust deep neural networks
- arxiv url: http://arxiv.org/abs/2407.08560v1
- Date: Thu, 11 Jul 2024 14:47:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-12 17:00:06.448385
- Title: Causal inference through multi-stage learning and doubly robust deep neural networks
- Title(参考訳): 多段階学習と2重頑健なディープニューラルネットワークによる因果推論
- Authors: Yuqian Zhang, Jelena Bradic,
- Abstract要約: ディープニューラルネットワーク(DNN)は、大規模教師付き学習問題において顕著な経験的性能を示した。
本研究は、複雑な因果推論タスクの幅広い範囲にわたるDNNの適用について検討する。
- 参考スコア(独自算出の注目度): 10.021381302215062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have demonstrated remarkable empirical performance in large-scale supervised learning problems, particularly in scenarios where both the sample size $n$ and the dimension of covariates $p$ are large. This study delves into the application of DNNs across a wide spectrum of intricate causal inference tasks, where direct estimation falls short and necessitates multi-stage learning. Examples include estimating the conditional average treatment effect and dynamic treatment effect. In this framework, DNNs are constructed sequentially, with subsequent stages building upon preceding ones. To mitigate the impact of estimation errors from early stages on subsequent ones, we integrate DNNs in a doubly robust manner. In contrast to previous research, our study offers theoretical assurances regarding the effectiveness of DNNs in settings where the dimensionality $p$ expands with the sample size. These findings are significant independently and extend to degenerate single-stage learning problems.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、大規模な教師付き学習問題、特にサンプルサイズ$n$と共変量$p$の両方が大きいシナリオにおいて、顕著な経験的性能を示している。
本研究は、DNNの複雑な因果推論タスクの範囲にまたがって適用し、直接推定が不足し、多段階の学習を必要としている。
例えば、条件平均治療効果と動的治療効果を推定する。
このフレームワークでは、DNNはシーケンシャルに構築され、その後に先行するステージが構築される。
初期推定誤差がその後の推定誤差に与える影響を軽減するため、DNNを二重に頑健な方法で統合する。
従来の研究とは対照的に,本研究では,DNNの有効性に関する理論的保証を提供する。
これらの発見は独立して重要であり、単一段階の学習問題を退化させる。
関連論文リスト
- Provably Neural Active Learning Succeeds via Prioritizing Perplexing Samples [53.95282502030541]
ニューラルネットワークベースのアクティブラーニング(NAL)は、ニューラルネットワークを使用してサンプルの小さなサブセットを選択してトレーニングする、費用対効果の高いデータ選択技術である。
我々は、機能学習の観点から、両方のクエリ基準ベースのNALの成功について、統一的な説明を提供することにより、一歩前進させようとする。
論文 参考訳(メタデータ) (2024-06-06T10:38:01Z) - What Variables Affect Out-of-Distribution Generalization in Pretrained Models? [15.047920317548128]
トレーニング済みのディープニューラルネットワーク(DNN)によって生成された埋め込みは広く使用されているが、下流タスクに対する効果は様々である。
プレトレーニングDNN埋め込みの伝達性および分布外一般化に影響を与える要因について検討した。
論文 参考訳(メタデータ) (2024-05-23T19:43:45Z) - Two-Phase Dynamics of Interactions Explains the Starting Point of a DNN Learning Over-Fitted Features [68.3512123520931]
深層ニューラルネットワーク(DNN)学習相互作用のダイナミクスについて検討する。
本稿では,DNNが2段階の相互作用を学習していることを明らかにする。
第1相は主に中位と高位の相互作用を罰し、第2相は徐々に増加する順序の相互作用を学習する。
論文 参考訳(メタデータ) (2024-05-16T17:13:25Z) - Unveiling and Mitigating Generalized Biases of DNNs through the Intrinsic Dimensions of Perceptual Manifolds [46.47992213722412]
公正なディープニューラルネットワーク(DNN)の構築は、信頼できる人工知能を達成するための重要なステップである。
本稿では,モデルの公平性と性能を高める固有次元正規化(IDR)を提案する。
様々な画像認識ベンチマークテストにおいて、IDRはモデルバイアスを低減し、性能を向上する。
論文 参考訳(メタデータ) (2024-04-22T04:16:40Z) - Be Persistent: Towards a Unified Solution for Mitigating Shortcuts in Deep Learning [24.200516684111175]
ニューラルネットワークの多くの障害ケースの中で、ショートカット学習は至るところで行われている。
DNNでショートカット学習のための統一されたソリューションを見つけることは不可能であり、TDAはそのようなフレームワークを形成する上で重要な役割を果たす。
論文 参考訳(メタデータ) (2024-02-17T10:02:22Z) - Adversarial Machine Learning in Latent Representations of Neural
Networks [9.372908891132772]
分散ディープニューラルネットワーク(DNN)は、モバイルデバイスの計算負担を低減し、エッジコンピューティングシナリオにおけるエンドツーエンドの推論レイテンシを低減することが示されている。
本稿では,分散DNNの敵行動に対する堅牢性について,厳密に分析する。
論文 参考訳(メタデータ) (2023-09-29T17:01:29Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - On the Relationship Between Adversarial Robustness and Decision Region
in Deep Neural Network [26.656444835709905]
敵攻撃時のモデルロバスト性に影響を与えるディープニューラルネットワーク(DNN)の内部特性について検討する。
本稿では,より頻度の高いトレーニングサンプルを配置するPRS(Populated Region Set)の概念を提案する。
論文 参考訳(メタデータ) (2022-07-07T16:06:34Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - Individual Treatment Effect Estimation Through Controlled Neural Network
Training in Two Stages [0.757024681220677]
個別の単位レベルで因果的影響推定を推定するために,2段階で学習した因果的ディープニューラルネットワークモデルを開発した。
我々はCDNNが競争力が高く、最も正確な個別治療効果の推定値が得られることを観察する。
論文 参考訳(メタデータ) (2022-01-21T06:34:52Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。