論文の概要: Model Averaging and Double Machine Learning
- arxiv url: http://arxiv.org/abs/2401.01645v1
- Date: Wed, 3 Jan 2024 09:38:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 14:35:05.913667
- Title: Model Averaging and Double Machine Learning
- Title(参考訳): モデル平均化とダブル機械学習
- Authors: Achim Ahrens and Christian B. Hansen and Mark E. Schaffer and Thomas
Wiemann
- Abstract要約: 我々はDDMLに2つの新しいスタック手法を導入する: ショートスタックはクロスフィットのステップを悪用し、プールスタックはクロスフィットのフォールドに対して共通スタックの重みを強制する。
そこで本研究では,DDMLのスタック化は,1つの事前選択学習者に基づく一般的な代替手法よりも,部分的に未知の機能形式に対して堅牢であることを示す。
- 参考スコア(独自算出の注目度): 2.8880000014100506
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper discusses pairing double/debiased machine learning (DDML) with
stacking, a model averaging method for combining multiple candidate learners,
to estimate structural parameters. We introduce two new stacking approaches for
DDML: short-stacking exploits the cross-fitting step of DDML to substantially
reduce the computational burden and pooled stacking enforces common stacking
weights over cross-fitting folds. Using calibrated simulation studies and two
applications estimating gender gaps in citations and wages, we show that DDML
with stacking is more robust to partially unknown functional forms than common
alternative approaches based on single pre-selected learners. We provide Stata
and R software implementing our proposals.
- Abstract(参考訳): 本稿では,複数の候補学習者を組み合わせたモデル平均化手法であるstackingと,ddml(double/debiased machine learning)を組み合わせることで,構造パラメータを推定する。
DDMLのクロスフィッティングステップを利用して計算負担を大幅に軽減し,プールド・スタックリングではクロスフィッティング・フォールドに対して共通積み重ね重みを強制する。
キャリブレーションされたシミュレーション研究と、引用と賃金の男女差を推定する2つの応用を用いて、重ね合わせによるDDMLは、単一の事前選択学習者に基づく一般的な代替手法よりも、部分的に未知の機能形式に対して堅牢であることを示す。
提案を実装したStaとRのソフトウェアを提供する。
関連論文リスト
- Sample Complexity Characterization for Linear Contextual MDPs [67.79455646673762]
文脈決定プロセス(CMDP)は、遷移カーネルと報酬関数がコンテキスト変数によってインデックス付けされた異なるMDPで時間とともに変化できる強化学習のクラスを記述する。
CMDPは、時間とともに変化する環境で多くの現実世界のアプリケーションをモデル化するための重要なフレームワークとして機能する。
CMDPを2つの線形関数近似モデルで検討する: 文脈変化表現とすべての文脈に対する共通線形重み付きモデルIと、すべての文脈に対する共通表現と文脈変化線形重み付きモデルIIである。
論文 参考訳(メタデータ) (2024-02-05T03:25:04Z) - Online Multi-Task Learning with Recursive Least Squares and Recursive
Kernel Methods [79.36688444492405]
本稿では,オンラインマルチタスク学習(MTL)回帰問題に対する2つの新しいアプローチを紹介する。
我々は、グラフベースの高性能MTL定式化を採用し、重み付き再帰最小方形(WRLS)とオンラインスパース最小方形サポートベクトル回帰(OSLSSVR)に基づく再帰版を開発する。
我々は,実世界の風速予測ケーススタディにおいて,オンラインMTL法と他の競技者との比較を行った。
論文 参考訳(メタデータ) (2023-08-03T01:41:34Z) - ddml: Double/debiased machine learning in Stata [2.8880000014100506]
本稿では,Double/Debiased Machine Learning (DDML) のパッケージ ddml について紹介する。
ddmlは、スタタの既存の教師付き機械学習プログラムと互換性がある。
論文 参考訳(メタデータ) (2023-01-23T12:37:34Z) - DoubleML -- An Object-Oriented Implementation of Double Machine Learning
in R [5.182308089719925]
RパッケージのDoubleMLは、ダブル/デバイアスの機械学習フレームワークを実装している。
機械学習手法に基づいた因果モデルでパラメータを推定する機能を提供する。
論文 参考訳(メタデータ) (2021-03-17T12:42:41Z) - End-to-End Automatic Speech Recognition with Deep Mutual Learning [29.925641799136663]
この論文は、エンドツーエンドASRモデルに深層相互学習を適用する最初のものである。
DMLでは、トレーニングプロセス全体を通して互いに模倣することで、複数のモデルを同時および共同でトレーニングします。
従来の学習法と比較して,dmlは両方のモデリング設定のasr性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-16T13:52:06Z) - Contrastive Prototype Learning with Augmented Embeddings for Few-Shot
Learning [58.2091760793799]
拡張埋め込み(CPLAE)モデルを用いた新しいコントラスト型プロトタイプ学習を提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
いくつかのベンチマークによる大規模な実験により,提案したCPLAEが新たな最先端を実現することが示された。
論文 参考訳(メタデータ) (2021-01-23T13:22:44Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。