論文の概要: Model Averaging and Double Machine Learning
- arxiv url: http://arxiv.org/abs/2401.01645v1
- Date: Wed, 3 Jan 2024 09:38:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 14:35:05.913667
- Title: Model Averaging and Double Machine Learning
- Title(参考訳): モデル平均化とダブル機械学習
- Authors: Achim Ahrens and Christian B. Hansen and Mark E. Schaffer and Thomas
Wiemann
- Abstract要約: 我々はDDMLに2つの新しいスタック手法を導入する: ショートスタックはクロスフィットのステップを悪用し、プールスタックはクロスフィットのフォールドに対して共通スタックの重みを強制する。
そこで本研究では,DDMLのスタック化は,1つの事前選択学習者に基づく一般的な代替手法よりも,部分的に未知の機能形式に対して堅牢であることを示す。
- 参考スコア(独自算出の注目度): 2.8880000014100506
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper discusses pairing double/debiased machine learning (DDML) with
stacking, a model averaging method for combining multiple candidate learners,
to estimate structural parameters. We introduce two new stacking approaches for
DDML: short-stacking exploits the cross-fitting step of DDML to substantially
reduce the computational burden and pooled stacking enforces common stacking
weights over cross-fitting folds. Using calibrated simulation studies and two
applications estimating gender gaps in citations and wages, we show that DDML
with stacking is more robust to partially unknown functional forms than common
alternative approaches based on single pre-selected learners. We provide Stata
and R software implementing our proposals.
- Abstract(参考訳): 本稿では,複数の候補学習者を組み合わせたモデル平均化手法であるstackingと,ddml(double/debiased machine learning)を組み合わせることで,構造パラメータを推定する。
DDMLのクロスフィッティングステップを利用して計算負担を大幅に軽減し,プールド・スタックリングではクロスフィッティング・フォールドに対して共通積み重ね重みを強制する。
キャリブレーションされたシミュレーション研究と、引用と賃金の男女差を推定する2つの応用を用いて、重ね合わせによるDDMLは、単一の事前選択学習者に基づく一般的な代替手法よりも、部分的に未知の機能形式に対して堅牢であることを示す。
提案を実装したStaとRのソフトウェアを提供する。
関連論文リスト
- MAP: Low-compute Model Merging with Amortized Pareto Fronts via Quadratic Approximation [80.47072100963017]
モデルマージは、同じトレーニング済みモデルから細調整された複数のシングルタスクモデルをマルチタスクモデルに結合する効果的なアプローチである。
既存のモデルマージ手法は、平均的なタスク精度の向上に重点を置いている。
Amortized Pareto Front (MAP) を用いた新しい低計算アルゴリズム Model Merging を導入する。
論文 参考訳(メタデータ) (2024-06-11T17:55:25Z) - Sample Complexity Characterization for Linear Contextual MDPs [67.79455646673762]
文脈決定プロセス(CMDP)は、遷移カーネルと報酬関数がコンテキスト変数によってインデックス付けされた異なるMDPで時間とともに変化できる強化学習のクラスを記述する。
CMDPは、時間とともに変化する環境で多くの現実世界のアプリケーションをモデル化するための重要なフレームワークとして機能する。
CMDPを2つの線形関数近似モデルで検討する: 文脈変化表現とすべての文脈に対する共通線形重み付きモデルIと、すべての文脈に対する共通表現と文脈変化線形重み付きモデルIIである。
論文 参考訳(メタデータ) (2024-02-05T03:25:04Z) - Online Multi-Task Learning with Recursive Least Squares and Recursive Kernel Methods [50.67996219968513]
本稿では,オンラインマルチタスク学習(MTL)回帰問題に対する2つの新しいアプローチを紹介する。
入力空間の次元の2次パースタンスコストで精度よく近似的な再帰を実現する。
我々は,実世界の風速予測ケーススタディにおいて,オンラインMTL法と他の競技者との比較を行った。
論文 参考訳(メタデータ) (2023-08-03T01:41:34Z) - ddml: Double/debiased machine learning in Stata [2.8880000014100506]
本稿では,Double/Debiased Machine Learning (DDML) のパッケージ ddml について紹介する。
ddmlは、スタタの既存の教師付き機械学習プログラムと互換性がある。
論文 参考訳(メタデータ) (2023-01-23T12:37:34Z) - DoubleML -- An Object-Oriented Implementation of Double Machine Learning in R [4.830430752756141]
RパッケージのDoubleMLは、ダブル/デバイアスの機械学習フレームワークを実装している。
機械学習手法に基づいた因果モデルでパラメータを推定する機能を提供する。
論文 参考訳(メタデータ) (2021-03-17T12:42:41Z) - Contrastive Prototype Learning with Augmented Embeddings for Few-Shot
Learning [58.2091760793799]
拡張埋め込み(CPLAE)モデルを用いた新しいコントラスト型プロトタイプ学習を提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
いくつかのベンチマークによる大規模な実験により,提案したCPLAEが新たな最先端を実現することが示された。
論文 参考訳(メタデータ) (2021-01-23T13:22:44Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。