論文の概要: Demystifying Spectral Feature Learning for Instrumental Variable Regression
- arxiv url: http://arxiv.org/abs/2506.10899v1
- Date: Thu, 12 Jun 2025 17:06:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.857646
- Title: Demystifying Spectral Feature Learning for Instrumental Variable Regression
- Title(参考訳): インスツルメンタル・バリアント・レグレッションのためのデミスティファイションスペクトル特徴学習
- Authors: Dimitri Meunier, Antoine Moulin, Jakub Wornbard, Vladimir R. Kostic, Arthur Gretton,
- Abstract要約: スペクトル特徴に基づく2段最小二乗推定器の一般化誤差を導出する。
パフォーマンスは2つの重要な要因に依存しており、結果の明確な分類につながります。
- 参考スコア(独自算出の注目度): 18.91159642797707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the problem of causal effect estimation in the presence of hidden confounders, using nonparametric instrumental variable (IV) regression. A leading strategy employs spectral features - that is, learned features spanning the top eigensubspaces of the operator linking treatments to instruments. We derive a generalization error bound for a two-stage least squares estimator based on spectral features, and gain insights into the method's performance and failure modes. We show that performance depends on two key factors, leading to a clear taxonomy of outcomes. In a good scenario, the approach is optimal. This occurs with strong spectral alignment, meaning the structural function is well-represented by the top eigenfunctions of the conditional operator, coupled with this operator's slow eigenvalue decay, indicating a strong instrument. Performance degrades in a bad scenario: spectral alignment remains strong, but rapid eigenvalue decay (indicating a weaker instrument) demands significantly more samples for effective feature learning. Finally, in the ugly scenario, weak spectral alignment causes the method to fail, regardless of the eigenvalues' characteristics. Our synthetic experiments empirically validate this taxonomy.
- Abstract(参考訳): 本研究では,非パラメトリック機器変数(IV)回帰を用いた,隠れた共同創設者の存在下での因果効果推定の問題に対処する。
主要な戦略はスペクトル的特徴(つまり、オペレーターの上位固有部分空間にまたがる学習的特徴)を採用し、治療を楽器にリンクする。
スペクトル特徴に基づく2段最小2乗推定器の一般化誤差を導出し,本手法の性能および故障モードについて考察する。
パフォーマンスは2つの重要な要因に依存しており、結果の明確な分類につながります。
よいシナリオでは、アプローチは最適です。
これは強いスペクトルアライメントで起こり、つまり構造関数は条件作用素の上位固有関数によってうまく表現され、この作用素の緩やかな固有値の崩壊と結びつき、強い楽器を示す。
スペクトルアライメントは引き続き強いが、急激な固有値減衰(より弱い楽器を示す)は効果的な特徴学習のためにはるかに多くのサンプルを要求する。
最後に、粗いシナリオでは、スペクトルアライメントが弱いため、固有値の特性に関わらず、メソッドは失敗する。
我々の合成実験はこの分類を実証的に検証した。
関連論文リスト
- Spectral Estimators for Multi-Index Models: Precise Asymptotics and Optimal Weak Recovery [21.414505380263016]
スペクトル推定器を用いて信号が分散する部分空間の復元に焦点をあてる。
我々の主な技術的貢献はスペクトル法の性能を正確に評価することである。
分析の結果,サンプルの複雑さが増大するにつれて固有値がスペクトルの大部分から逃れる相転移現象が明らかになった。
論文 参考訳(メタデータ) (2025-02-03T18:08:30Z) - Point-Calibrated Spectral Neural Operators [54.13671100638092]
点レベル適応スペクトルベースで関数を近似することで演算子マッピングを学習する。
点平衡スペクトル演算子は点レベル適応スペクトルベースで関数を近似することで演算子マッピングを学習する。
論文 参考訳(メタデータ) (2024-10-15T08:19:39Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Hodge-Aware Contrastive Learning [101.56637264703058]
単純コンプレックスは、マルチウェイ依存によるデータのモデリングに有効である。
我々は、単純なデータを処理するための対照的な自己教師付き学習手法を開発した。
論文 参考訳(メタデータ) (2023-09-14T00:40:07Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Sharp Spectral Rates for Koopman Operator Learning [27.820383937933034]
クープマン固有値と固有関数に対する非漸近学習境界を初めて提示する。
我々の結果は、突発的固有値の出現に新たな光を当てた。
論文 参考訳(メタデータ) (2023-02-03T21:19:56Z) - Spectral Feature Augmentation for Graph Contrastive Learning and Beyond [64.78221638149276]
グラフ(および画像)におけるコントラスト学習のための新しいスペクトル特徴論法を提案する。
各データビューに対して,特徴写像毎の低ランク近似を推定し,その近似を地図から抽出して補数を求める。
これは、2つの価値ある副産物(単に1つまたは2つのイテレーション)を楽しむ非標準パワーレジームである、ここで提案された不完全パワーイテレーションによって達成される。
グラフ/画像データセットの実験では、スペクトルフィーチャの増大がベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-02T08:48:11Z) - Spectral Decomposition Representation for Reinforcement Learning [100.0424588013549]
本稿では, スペクトル分解表現法(SPEDER)を提案する。この手法は, データ収集ポリシーに急激な依存を生じさせることなく, ダイナミックスから状態-作用の抽象化を抽出する。
理論的解析により、オンライン設定とオフライン設定の両方において提案アルゴリズムのサンプル効率が確立される。
実験により、いくつかのベンチマークで現在の最先端アルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-19T19:01:30Z) - Harmless interpolation in regression and classification with structured
features [21.064512161584872]
過度にパラメータ化されたニューラルネットワークは、ノイズの多いトレーニングデータに完全に適合するが、テストデータではうまく一般化する。
再生カーネルヒルベルト空間における上界回帰と分類リスクの一般かつ柔軟な枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-09T15:12:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。