論文の概要: Heterogeneous Treatment Effect with Trained Kernels of the
Nadaraya-Watson Regression
- arxiv url: http://arxiv.org/abs/2207.09139v1
- Date: Tue, 19 Jul 2022 09:21:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:20:31.901658
- Title: Heterogeneous Treatment Effect with Trained Kernels of the
Nadaraya-Watson Regression
- Title(参考訳): ナダラヤ-ワトソン回帰の訓練カーネルによる不均一処理効果
- Authors: Andrei V. Konstantinov and Stanislav R. Kirpichenko and Lev V. Utkin
- Abstract要約: 本論文では, 条件付き平均処理効果を推定する新しい手法を提案する。
これはTNW-CATEと呼ばれ、治療の回数が小さいのに対して、コントロールの数がかなり大きいという仮定に基づいている。
TNW-CATEは、ナダラヤ・ワトソン回帰を用いて、対照群と治療群からの結果を予測する。
- 参考スコア(独自算出の注目度): 4.640835690336653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new method for estimating the conditional average treatment effect is
proposed in the paper. It is called TNW-CATE (the Trainable Nadaraya-Watson
regression for CATE) and based on the assumption that the number of controls is
rather large whereas the number of treatments is small. TNW-CATE uses the
Nadaraya-Watson regression for predicting outcomes of patients from the control
and treatment groups. The main idea behind TNW-CATE is to train kernels of the
Nadaraya-Watson regression by using a weight sharing neural network of a
specific form. The network is trained on controls, and it replaces standard
kernels with a set of neural subnetworks with shared parameters such that every
subnetwork implements the trainable kernel, but the whole network implements
the Nadaraya-Watson estimator. The network memorizes how the feature vectors
are located in the feature space. The proposed approach is similar to the
transfer learning when domains of source and target data are similar, but tasks
are different. Various numerical simulation experiments illustrate TNW-CATE and
compare it with the well-known T-learner, S-learner and X-learner for several
types of the control and treatment outcome functions. The code of proposed
algorithms implementing TNW-CATE is available in
https://github.com/Stasychbr/TNW-CATE.
- Abstract(参考訳): 本論文では, 条件付き平均処理効果を推定する新しい手法を提案する。
これはTNW-CATE(Traiable Nadaraya-Watson regression for CATE)と呼ばれ、コントロールの数がかなり多く、治療の数は少ないという仮定に基づいている。
tnw-cateは、制御群と治療群から患者の予後を予測するためにnadaraya-watson回帰を用いる。
TNW-CATEの主なアイデアは、特定の形式の重み共有ニューラルネットワークを使用して、Nadaraya-Watson回帰のカーネルをトレーニングすることだ。
ネットワークはコントロールに基づいてトレーニングされ、各サブネットワークがトレーニング可能なカーネルを実装するような共有パラメータで、標準カーネルをニューラルネットワークのセットに置き換えるが、ネットワーク全体はnadaraya-watson推定器を実装している。
ネットワークは特徴ベクトルが特徴空間にあることを記憶している。
提案手法は、ソースとターゲットデータのドメインが似ている場合の転送学習に似ているが、タスクが異なる。
様々な数値シミュレーション実験では、TNW-CATEをよく知られたT-learner、S-learner、X-learnerと比較した。
TNW-CATEを実装するアルゴリズムのコードはhttps://github.com/Stasychbr/TNW-CATEで公開されている。
関連論文リスト
- Learning in Convolutional Neural Networks Accelerated by Transfer Entropy [0.0]
フィードフォワードネットワークでは、トランスファーエントロピー(TE)を使用して、異なる層に位置するニューロン出力ペア間の関係を定量化することができる。
TEフィードバック接続を統合したCNNアーキテクチャのための新しいトレーニング機構を提案する。
論文 参考訳(メタデータ) (2024-04-03T13:31:49Z) - Stochastic Approximation Approach to Federated Machine Learning [0.0]
本稿では、近似(SA)フレームワークにおけるフェデレートラーニング(FL)について検討する。
FLは、さまざまな参加者やクライアント間でニューラルネットワークモデルをトレーニングする、協調的な方法である。
提案アルゴリズムは頑健であり,より信頼性の高い重み推定を行う。
論文 参考訳(メタデータ) (2024-02-20T12:00:25Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Lost Vibration Test Data Recovery Using Convolutional Neural Network: A
Case Study [0.0]
本稿では,アラモサキャニオン橋のCNNアルゴリズムを実構造として提案する。
3つの異なるCNNモデルは、1つと2つの故障したセンサーを予測するものとされた。
畳み込み層を追加することによりモデルの精度が向上した。
論文 参考訳(メタデータ) (2022-04-11T23:24:03Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - A Novel Neural Network Training Framework with Data Assimilation [2.948167339160823]
勾配計算を避けるため,データ同化に基づく勾配なし学習フレームワークを提案する。
その結果,提案手法は勾配法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-06T11:12:23Z) - System Identification Through Lipschitz Regularized Deep Neural Networks [0.4297070083645048]
ニューラルネットワークを使って、データから支配方程式を学習します。
我々は、観測されたタイムスタンプデータから直接、ODEs $dotx(t) = f(t, x(t))$の右辺を再構築する。
論文 参考訳(メタデータ) (2020-09-07T17:52:51Z) - RIFLE: Backpropagation in Depth for Deep Transfer Learning through
Re-Initializing the Fully-connected LayEr [60.07531696857743]
事前訓練されたモデルを用いたディープ畳み込みニューラルネットワーク(CNN)の微調整は、より大きなデータセットから学習した知識をターゲットタスクに転送するのに役立つ。
転送学習環境におけるバックプロパゲーションを深める戦略であるRIFLEを提案する。
RIFLEは、深いCNN層の重み付けに意味のあるアップデートをもたらし、低レベルの機能学習を改善する。
論文 参考訳(メタデータ) (2020-07-07T11:27:43Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。