論文の概要: Variable Selection via Thompson Sampling
- arxiv url: http://arxiv.org/abs/2007.00187v2
- Date: Thu, 11 Feb 2021 19:31:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 23:55:11.077679
- Title: Variable Selection via Thompson Sampling
- Title(参考訳): トンプソンサンプリングによる変数選択
- Authors: Yi Liu and Veronika Rockova
- Abstract要約: 我々はトンプソン可変選択(TVS)と呼ばれる解釈可能な機械学習のためのフレームワークを提案する。
TVSは、線形となるための基盤モデルに依存しない、解釈可能な機械学習のためのフレームワークである。
シミュレーションデータと実データの両方に非常に強い経験的性能を示す。
- 参考スコア(独自算出の注目度): 3.017637529264628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Thompson sampling is a heuristic algorithm for the multi-armed bandit problem
which has a long tradition in machine learning. The algorithm has a Bayesian
spirit in the sense that it selects arms based on posterior samples of reward
probabilities of each arm. By forging a connection between combinatorial binary
bandits and spike-and-slab variable selection, we propose a stochastic
optimization approach to subset selection called Thompson Variable Selection
(TVS). TVS is a framework for interpretable machine learning which does not
rely on the underlying model to be linear. TVS brings together Bayesian
reinforcement and machine learning in order to extend the reach of Bayesian
subset selection to non-parametric models and large datasets with very many
predictors and/or very many observations. Depending on the choice of a reward,
TVS can be deployed in offline as well as online setups with streaming data
batches. Tailoring multiplay bandits to variable selection, we provide regret
bounds without necessarily assuming that the arm mean rewards be unrelated. We
show a very strong empirical performance on both simulated and real data.
Unlike deterministic optimization methods for spike-and-slab variable
selection, the stochastic nature makes TVS less prone to local convergence and
thereby more robust.
- Abstract(参考訳): トンプソンサンプリング(Thompson sample)は、機械学習において長い伝統を持つ多腕バンディット問題のヒューリスティックアルゴリズムである。
このアルゴリズムは、各腕の報酬確率の後方サンプルに基づいて腕を選択するという意味でベイズ精神を持つ。
そこで,組合わせバイナリバンディットとスパイク・アンド・スラブ変数選択の関連を鍛造することにより,集合選択に対する確率的最適化手法であるトンプソン変数選択 (tvs) を提案する。
TVSは、線形となるための基盤モデルに依存しない、解釈可能な機械学習のためのフレームワークである。
TVSはベイズ的強化と機械学習を融合させ、ベイズ的部分集合選択の到達範囲を非パラメトリックモデルや、非常に多くの予測子や観測値を持つ大規模なデータセットにまで拡張する。
報酬の選択によっては、TVSはオフラインでも、ストリーミングデータバッチを備えたオンラインセットアップでもデプロイできる。
可変選択にマルチプレイ・バンディットを配置することで、腕の平均報酬が無関係であると仮定することなく、後悔の限界を提供する。
シミュレーションデータと実データの両方に非常に強い経験的性能を示す。
スパイク・アンド・スラブ変数選択の決定論的最適化法とは異なり、確率的性質によりTVSは局所収束の傾向が小さくなり、より堅牢になる。
関連論文リスト
- Neural Dueling Bandits [58.90189511247936]
ニューラルネットワークを用いて、予め選択した腕の好みフィードバックを用いて報酬関数を推定する。
次に、理論結果を二項フィードバックによる文脈的帯域幅問題に拡張し、それはそれ自体は自明な寄与ではない。
論文 参考訳(メタデータ) (2024-07-24T09:23:22Z) - BWS: Best Window Selection Based on Sample Scores for Data Pruning across Broad Ranges [12.248397169100784]
データサブセットの選択は、フルデータセットのトレーニングを近似できる大規模なデータセットの、小さくても情報に富むサブセットを見つけることを目的としている。
難易度スコアに基づいて順序付けされたサンプルから最適なウィンドウサブセットを選択する方法を提案することにより、普遍的で効率的なデータサブセット選択法であるBest Window Selection(BWS)を導入する。
論文 参考訳(メタデータ) (2024-06-05T08:33:09Z) - Data-Efficient Training of CNNs and Transformers with Coresets: A
Stability Perspective [12.53542203921728]
ベンチマーク設定を行い、CNNとトランスフォーマーの異なるコアセット選択方法を比較する。
我々は,SOTA選択法と比較して,サブセットのランダム選択がより堅牢で安定であることを示す。
トランスフォーマーは一般的に大規模なデータセットで事前トレーニングされており、特定のターゲットデータセットに対して、非常に小さなコアセットサイズでパフォーマンスを安定させるのに役立ちます。
論文 参考訳(メタデータ) (2023-03-03T17:24:39Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - Algorithms for Adaptive Experiments that Trade-off Statistical Analysis
with Reward: Combining Uniform Random Assignment and Reward Maximization [50.725191156128645]
トンプソンサンプリングのようなマルチアームバンディットアルゴリズムは適応的な実験を行うのに利用できる。
統計的解析のための一様ランダム化の利点を組み合わせた2つのアルゴリズムを探索する2つのアーム実験のシミュレーションを提案する。
論文 参考訳(メタデータ) (2021-12-15T22:11:58Z) - Universal and data-adaptive algorithms for model selection in linear
contextual bandits [52.47796554359261]
モデル選択の最も単純な非自明な例を考える: 単純な多重武装バンディット問題と線形文脈バンディット問題とを区別する。
データ適応的な方法で探索する新しいアルゴリズムを導入し、$mathcalO(dalpha T1- alpha)$という形式の保証を提供する。
我々のアプローチは、いくつかの仮定の下で、ネストされた線形文脈包帯のモデル選択に拡張する。
論文 参考訳(メタデータ) (2021-11-08T18:05:35Z) - Markov Decision Process modeled with Bandits for Sequential Decision
Making in Linear-flow [73.1896399783641]
会員/加入者の獲得と保持では、複数のページを連続してマーケティングコンテンツを推奨する必要がある。
遷移確率行列をモデル化するためにBandits を用いた MDP としてこの問題を定式化することを提案する。
提案したMDPのBanditsアルゴリズムは,$epsilon$-greedyと$epsilon$-greedy,$epsilon$,IndependentBandits,InteractionBanditsでQ-learningを上回っている。
論文 参考訳(メタデータ) (2021-07-01T03:54:36Z) - Balancing Constraints and Submodularity in Data Subset Selection [43.03720397062461]
より少ないトレーニングデータを用いて、従来のディープラーニングモデルと同様の精度が得られることを示す。
新たな多様性駆動客観的関数を提案し,マトロイドを用いたクラスラベルと決定境界の制約のバランスをとる。
論文 参考訳(メタデータ) (2021-04-26T19:22:27Z) - ABM: an automatic supervised feature engineering method for loss based
models based on group and fused lasso [0.0]
分類や回帰問題の解決における重要な問題は、モデルに入力される前のデータに特徴工学と変数選択を適用することである。
本稿では,グループとラッソを融合したエンドツーエンドのカットポイント選択手法を提案する。
論文 参考訳(メタデータ) (2020-09-22T12:42:22Z) - Non-Adaptive Adaptive Sampling on Turnstile Streams [57.619901304728366]
カラムサブセット選択、部分空間近似、射影クラスタリング、および空間サブリニアを$n$で使用するターンタイルストリームのボリュームに対する最初の相対エラーアルゴリズムを提供する。
我々の適応的なサンプリング手法は、様々なデータ要約問題に多くの応用をもたらしており、これは最先端を改善するか、より緩和された行列列モデルで以前に研究されただけである。
論文 参考訳(メタデータ) (2020-04-23T05:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。