論文の概要: A Self-Penalizing Objective Function for Scalable Interaction Detection
- arxiv url: http://arxiv.org/abs/2011.12215v2
- Date: Sun, 13 Dec 2020 00:14:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 14:30:33.594357
- Title: A Self-Penalizing Objective Function for Scalable Interaction Detection
- Title(参考訳): スケーラブルな相互作用検出のための自己認識型目的関数
- Authors: Keli Liu and Feng Ruan
- Abstract要約: 本研究では,変数間の相互作用を発見するための計算により,非パラメトリックな変数選択の問題に取り組む。
トリックは、メトリック学習目標と呼ばれるパラメトリック非パラメトリック依存度を最大化することである。
- 参考スコア(独自算出の注目度): 2.208242292882514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We tackle the problem of nonparametric variable selection with a focus on
discovering interactions between variables. With $p$ variables there are
$O(p^s)$ possible order-$s$ interactions making exhaustive search infeasible.
It is nonetheless possible to identify the variables involved in interactions
with only linear computation cost, $O(p)$. The trick is to maximize a class of
parametrized nonparametric dependence measures which we call metric learning
objectives; the landscape of these nonconvex objective functions is sensitive
to interactions but the objectives themselves do not explicitly model
interactions. Three properties make metric learning objectives highly
attractive:
(a) The stationary points of the objective are automatically sparse (i.e.
performs selection) -- no explicit $\ell_1$ penalization is needed.
(b) All stationary points of the objective exclude noise variables with high
probability.
(c) Guaranteed recovery of all signal variables without needing to reach the
objective's global maxima or special stationary points.
The second and third properties mean that all our theoretical results apply
in the practical case where one uses gradient ascent to maximize the metric
learning objective. While not all metric learning objectives enjoy good
statistical power, we design an objective based on $\ell_1$ kernels that does
exhibit favorable power: it recovers (i) main effects with $n \sim \log p$
samples, (ii) hierarchical interactions with $n \sim \log p$ samples and (iii)
order-$s$ pure interactions with $n \sim p^{2(s-1)}\log p$ samples.
- Abstract(参考訳): 変数間の相互作用を発見することに着目し,非パラメータ変数選択の問題に取り組む。
p$変数には$O(p^s)$許容順序-$$$相互作用があり、徹底的な検索が不可能である。
それにもかかわらず、線形計算コストのみと相互作用する変数、$O(p)$を識別することは可能である。
これらの非凸目的関数の風景は相互作用に敏感であるが、目的自体が明示的に相互作用をモデル化していない。
3つの特性により メトリクス学習の目的は非常に魅力的です
(a)目標の静止点は自動的にスパースされ(すなわち選択を行う)、明示的な$\ell_1$ペナリゼーションは不要である。
b) 目的のすべての静止点は、高い確率でノイズ変数を除外する。
(c)目的のグローバルな最大点や特別な静止点に到達することなく、全ての信号変数の回復を保証した。
第2および第3の特性は、我々の理論結果がすべて、計量学習目標を最大化するために勾配上昇を使用する実例に適用されることを意味する。
すべてのメートル法学習目標が良い統計パワーを享受するわけではないが、我々は$\ell_1$のカーネルに基づいて目的を設計する。
(i)$n \sim \log p$サンプルによる主な効果
(ii) $n \sim \log p$ サンプルと階層的相互作用
(iii)$n \sim p^{2(s-1)}\log p$ による純粋な相互作用。
関連論文リスト
- Partial Identifiability and Misspecification in Inverse Reinforcement Learning [64.13583792391783]
Inverse Reinforcement Learning の目的は、報酬関数 $R$ をポリシー $pi$ から推論することである。
本稿では,IRLにおける部分的識別性と不特定性について包括的に分析する。
論文 参考訳(メタデータ) (2024-11-24T18:35:46Z) - $f$-MICL: Understanding and Generalizing InfoNCE-based Contrastive
Learning [37.45319637345343]
対照的に学習において、広く適応された目的関数はInfoNCEであり、表現比較にガウスコサイン類似性を用いる。
本稿では,(1)KLをベースとした目的を超えることができるか,という2つの興味深い疑問に答えることを目的とする。
比較学習におけるKLに基づく相互情報を$f$-Mutual Information in Contrastive Learning(f$-MICL)に、$f$-divergencesを用いて一般化することで、回答を提供する。
論文 参考訳(メタデータ) (2024-02-15T17:57:54Z) - Efficient Conditionally Invariant Representation Learning [41.320360597120604]
Conditional Independence Regression CovariancE (CIRCE)
条件付き特徴依存の尺度は、特徴学習の各ステップに複数の回帰を必要とする。
実験では,従来のベンチマーク手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-16T18:39:32Z) - Multi-Task Imitation Learning for Linear Dynamical Systems [50.124394757116605]
線形システム上での効率的な模倣学習のための表現学習について検討する。
学習対象ポリシーによって生成された軌道上の模倣ギャップは、$tildeOleft(frack n_xHN_mathrmshared + frack n_uN_mathrmtargetright)$で制限されている。
論文 参考訳(メタデータ) (2022-12-01T00:14:35Z) - Sharper Rates and Flexible Framework for Nonconvex SGD with Client and
Data Sampling [64.31011847952006]
我々は、平均$n$スムーズでおそらくは非カラー関数のほぼ定常点を求める問題を再考する。
我々は$smallsfcolorgreen$を一般化し、事実上あらゆるサンプリングメカニズムで確実に動作するようにします。
我々は、スムーズな非カラー状態における最適境界の最も一般的な、最も正確な解析を提供する。
論文 参考訳(メタデータ) (2022-06-05T21:32:33Z) - Approximate Function Evaluation via Multi-Armed Bandits [51.146684847667125]
既知の滑らかな関数 $f$ の値を未知の点 $boldsymbolmu in mathbbRn$ で推定する問題について検討する。
我々は、各座標の重要性に応じてサンプルを学習するインスタンス適応アルゴリズムを設計し、少なくとも1-delta$の確率で$epsilon$の正確な推定値である$f(boldsymbolmu)$を返す。
論文 参考訳(メタデータ) (2022-03-18T18:50:52Z) - Agnostic learning with unknown utilities [70.14742836006042]
現実世界の多くの問題において、決定の効用は基礎となる文脈である$x$ と decision $y$ に依存する。
我々はこれを未知のユーティリティによる不可知学習として研究する。
サンプルされた点のみのユーティリティを推定することで、よく一般化した決定関数を学習できることを示す。
論文 参考訳(メタデータ) (2021-04-17T08:22:04Z) - $PredDiff$: Explanations and Interactions from Conditional Expectations [0.3655021726150368]
preddiff$ は確率論に根ざしたモデルに依存しない局所帰属法である。
本研究では,$preddiff$の特性を明確にし,元の形式的拡張をいくつか提示する。
論文 参考訳(メタデータ) (2021-02-26T14:46:47Z) - Nearly Optimal Regret for Learning Adversarial MDPs with Linear Function
Approximation [92.3161051419884]
我々は、敵対的な報酬と完全な情報フィードバックで有限正方体エピソディックマルコフ決定プロセスのための強化学習を研究します。
我々は、$tildeO(dHsqrtT)$ regretを達成できることを示し、$H$はエピソードの長さである。
また、対数因子までの$tildeOmega(dHsqrtT)$の値が一致することを証明する。
論文 参考訳(メタデータ) (2021-02-17T18:54:08Z) - Intervention Efficient Algorithms for Approximate Learning of Causal
Graphs [22.401163479802094]
我々は、潜時の存在下で観察された変数の集合間の因果関係を学習する問題を研究する。
我々の目標は、介入の最小限の費用で、すべての因果関係や祖先関係の方向性を$G$で回収することです。
我々のアルゴリズムは効率的な介入設計と低コストな分離集合系の設計を組み合わせる。
論文 参考訳(メタデータ) (2020-12-27T17:08:46Z) - Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials [5.905364646955811]
人工知能(AI)と機械学習(ML)の分野では、未知のターゲット関数 $y=f(mathbfx)$ の近似が共通の目的である。
トレーニングセットとして$S$を参照し、新しいインスタンス$mathbfx$に対して、このターゲット関数を効果的に近似できる低複雑さの数学的モデルを特定することを目的としている。
論文 参考訳(メタデータ) (2020-11-27T04:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。