論文の概要: Extended Fiducial Inference for Individual Treatment Effects via Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2505.01995v1
- Date: Sun, 04 May 2025 05:40:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.367508
- Title: Extended Fiducial Inference for Individual Treatment Effects via Deep Neural Networks
- Title(参考訳): 深部ニューラルネットワークによる個別治療効果の拡張的フィデューシャル推論
- Authors: Sehwan Kim, Faming Liang,
- Abstract要約: 本研究は、個別処理効果推定の問題に対処する二重ニューラルネットワーク(Double-NN)手法を提案する。
ディープニューラルネットワークは治療と制御効果関数をモデル化し、追加のニューラルネットワークはパラメータを推定する。
数値計算により, 個別処理効果推定における共形量子回帰(CQR)法と比較して, 提案手法の優れた性能が示された。
- 参考スコア(独自算出の注目度): 7.916654052803723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Individual treatment effect estimation has gained significant attention in recent data science literature. This work introduces the Double Neural Network (Double-NN) method to address this problem within the framework of extended fiducial inference (EFI). In the proposed method, deep neural networks are used to model the treatment and control effect functions, while an additional neural network is employed to estimate their parameters. The universal approximation capability of deep neural networks ensures the broad applicability of this method. Numerical results highlight the superior performance of the proposed Double-NN method compared to the conformal quantile regression (CQR) method in individual treatment effect estimation. From the perspective of statistical inference, this work advances the theory and methodology for statistical inference of large models. Specifically, it is theoretically proven that the proposed method permits the model size to increase with the sample size $n$ at a rate of $O(n^{\zeta})$ for some $0 \leq \zeta<1$, while still maintaining proper quantification of uncertainty in the model parameters. This result marks a significant improvement compared to the range $0\leq \zeta < \frac{1}{2}$ required by the classical central limit theorem. Furthermore, this work provides a rigorous framework for quantifying the uncertainty of deep neural networks under the neural scaling law, representing a substantial contribution to the statistical understanding of large-scale neural network models.
- Abstract(参考訳): 個々の治療効果の推定は、最近のデータサイエンス文学において大きな注目を集めている。
本研究は、拡張フィデューシャル推論(EFI)の枠組みにおいて、この問題に対処するための二重ニューラルネットワーク(Double-NN)手法を導入する。
提案手法では、ディープニューラルネットワークを用いて治療効果関数と制御効果関数をモデル化し、追加のニューラルネットワークを用いてパラメータを推定する。
ディープニューラルネットワークの普遍近似能力は、この手法の幅広い適用性を保証する。
数値計算により, 個別処理効果推定における共形量子回帰(CQR)法と比較して, 提案手法の優れた性能が示された。
統計的推論の観点から、この研究は大規模モデルの統計的推論の理論と方法論を前進させる。
具体的には, モデルパラメータにおける不確かさの適切な定量化を維持しつつも, モデルサイズを約$O(n^{\zeta})$で, モデルサイズを約$O(n^{\zeta})$で増加させることが理論的に証明された。
この結果は、古典的な中心極限定理によって要求される範囲 $0\leq \zeta < \frac{1}{2}$ よりも大幅に改善された。
さらに、この研究は、ニューラルネットワークの大規模スケール法則の下での深層ニューラルネットワークの不確かさを定量化するための厳密なフレームワークを提供し、大規模ニューラルネットワークモデルの統計的理解へのかなりの貢献を示している。
関連論文リスト
- Optimizing Deep Neural Networks using Safety-Guided Self Compression [0.0]
本研究では,ニューラルネットワークの重み付けと定量化を行う新しい安全性駆動量子化フレームワークを提案する。
提案手法は、畳み込みニューラルネットワーク(CNN)とアテンションベース言語モデルの両方で厳格に評価される。
実験結果から,本フレームワークは,従来の未定量モデルと比較して,テスト精度を最大2.5%向上することがわかった。
論文 参考訳(メタデータ) (2025-05-01T06:50:30Z) - SEF: A Method for Computing Prediction Intervals by Shifting the Error Function in Neural Networks [0.0]
本稿では,このカテゴリに属する新しい手法としてSEF(Shifting the Error Function)法を提案する。
提案手法では,1つのニューラルネットワークを3回トレーニングすることで,与えられた問題に対して対応する上境界と下限とを推定する。
この革新的なプロセスは、PIを効果的に生成し、不確実性定量化のための堅牢で効率的な技術をもたらす。
論文 参考訳(メタデータ) (2024-09-08T19:46:45Z) - Analyzing Neural Network-Based Generative Diffusion Models through Convex Optimization [45.72323731094864]
本稿では,2層ニューラルネットワークを用いた拡散モデル解析のための理論的枠組みを提案する。
我々は,1つの凸プログラムを解くことで,スコア予測のための浅層ニューラルネットワークのトレーニングが可能であることを証明した。
本結果は, ニューラルネットワークに基づく拡散モデルが漸近的でない環境で何を学習するかを, 正確に評価するものである。
論文 参考訳(メタデータ) (2024-02-03T00:20:25Z) - Efficient Bayes Inference in Neural Networks through Adaptive Importance
Sampling [19.518237361775533]
BNNでは、トレーニング段階で、未知の重みとバイアスパラメータの完全な後部分布が生成される。
この機能は、数え切れないほどの機械学習アプリケーションに役立ちます。
医療医療や自動運転など、意思決定に重大な影響を及ぼす分野において特に魅力的である。
論文 参考訳(メタデータ) (2022-10-03T14:59:23Z) - ESCHER: Eschewing Importance Sampling in Games by Computing a History
Value Function to Estimate Regret [97.73233271730616]
超大型ゲームにおけるナッシュ均衡の近似手法 : ニューラルネットワークを用いて近似最適ポリシー(戦略)を学習する
DREAMは,モンテカルロCFR(MCCFR)から受け継がれた重要なサンプリング項により,極めて高いばらつきを有すると推定された後悔のターゲット上で,ニューラルネットワークを訓練する。
ESCHERの深層学習バージョンは、DREAMとニューラル・フィクション・セルフプレイ(NFSP)の先行状態よりも優れており、ゲームサイズが大きくなるにつれて、その違いは劇的になる。
論文 参考訳(メタデータ) (2022-06-08T18:43:45Z) - Multi-Sample Online Learning for Spiking Neural Networks based on
Generalized Expectation Maximization [42.125394498649015]
スパイキングニューラルネットワーク(SNN)は、バイナリニューラルダイナミックアクティベーションを通じて処理することで、生物学的脳の効率の一部をキャプチャする。
本稿では, シナプス重みを共有しながら, 独立したスパイキング信号をサンプリングする複数のコンパートメントを活用することを提案する。
鍵となる考え方は、これらの信号を使ってログライクなトレーニング基準のより正確な統計的推定と勾配を求めることである。
論文 参考訳(メタデータ) (2021-02-05T16:39:42Z) - Exploring the Uncertainty Properties of Neural Networks' Implicit Priors
in the Infinite-Width Limit [47.324627920761685]
我々は、無限大のNNのアンサンブルに先立って関数空間をガウス過程として特徴づける最近の理論的進歩を用いる。
これにより、関数空間上の暗黙の前のNNについて、よりよく理解できます。
また,従来のNNGPを用いた分類手法の校正について検討した。
論文 参考訳(メタデータ) (2020-10-14T18:41:54Z) - Measurement error models: from nonparametric methods to deep neural
networks [3.1798318618973362]
本稿では,測定誤差モデルの推定に有効なニューラルネットワーク設計を提案する。
完全に接続されたフィードフォワードニューラルネットワークを用いて回帰関数を$f(x)$に近似する。
我々は、ニューラルネットワークアプローチと古典的ノンパラメトリック手法を比較するために、広範囲にわたる数値的研究を行っている。
論文 参考訳(メタデータ) (2020-07-15T06:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。