論文の概要: Accelerated Sparse Bayesian Learning via Screening Test and Its
Applications
- arxiv url: http://arxiv.org/abs/2007.04006v1
- Date: Wed, 8 Jul 2020 10:21:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 10:00:40.253875
- Title: Accelerated Sparse Bayesian Learning via Screening Test and Its
Applications
- Title(参考訳): スクリーニングテストによるスパースベイズ学習の高速化とその応用
- Authors: Yiping Jiang, Tianshi Chen
- Abstract要約: 線形系では、過度に完備な特徴の辞書を具備した最小の解を求めるのは通常NPハードである。
本稿では,解の空間性を促進するためにパラメータ化を事前に用いた疎ベイズ学習を提案する。
- 参考スコア(独自算出の注目度): 0.9916217495995309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In high-dimensional settings, sparse structures are critical for efficiency
in term of memory and computation complexity. For a linear system, to find the
sparsest solution provided with an over-complete dictionary of features
directly is typically NP-hard, and thus alternative approximate methods should
be considered. In this paper, our choice for alternative method is sparse
Bayesian learning, which, as empirical Bayesian approaches, uses a
parameterized prior to encourage sparsity in solution, rather than the other
methods with fixed priors such as LASSO. Screening test, however, aims at
quickly identifying a subset of features whose coefficients are guaranteed to
be zero in the optimal solution, and then can be safely removed from the
complete dictionary to obtain a smaller, more easily solved problem. Next, we
solve the smaller problem, after which the solution of the original problem can
be recovered by padding the smaller solution with zeros. The performance of the
proposed method will be examined on various data sets and applications.
- Abstract(参考訳): 高次元の設定では、スパース構造はメモリと計算の複雑さの点で効率上重要である。
線形系では、直交する特徴の過剰完備な辞書が提供される最も簡単な解を見つけることは、通常NPハードであり、代替の近似法を考える必要がある。
本稿では,経験的ベイズアプローチとして,LASSOのような固定された先行手法よりも,解の空間性を促進するためにパラメータ化を事前に用いた,疎ベイズ学習を選択する。
しかし、スクリーニングテストは、最適な解において係数がゼロであることが保証された特徴のサブセットを迅速に識別することを目的としており、より小さく、より簡単に解決できる問題を得るために、完全な辞書から安全に取り除くことができる。
次に、より小さな問題を解き、その後、小さな解をゼロでパディングすることで元の問題の解を復元する。
提案手法の性能は,様々なデータセットやアプリケーションで検討する。
関連論文リスト
- Discretize Relaxed Solution of Spectral Clustering via a Non-Heuristic
Algorithm [77.53604156112144]
我々は、元の問題と離散化アルゴリズムを橋渡しする1次項を開発する。
非ヒューリスティック法は元のグラフ切断問題を認識しているため、最終的な離散解の方が信頼性が高い。
論文 参考訳(メタデータ) (2023-10-19T13:57:38Z) - Fast Screening Rules for Optimal Design via Quadratic Lasso
Reformulation [0.135975510645475]
本研究は, 安全スクリーニングのルールを導出し, インテリジェンスサンプルを廃棄する。
新しいテストは、特に高次元のパラメータ空間に関わる問題に対して、より高速に計算できる。
本稿では,ラッソ法の正規化経路を計算するホモトピーアルゴリズムを,正方形 $ell_$-penalty に対して再パラメータ化する方法を示す。
論文 参考訳(メタデータ) (2023-10-13T08:10:46Z) - OKRidge: Scalable Optimal k-Sparse Ridge Regression [21.17964202317435]
スパースリッジ回帰のための高速アルゴリズムOKRidgeを提案する。
また,ビームサーチを利用した解法を温める方法を提案する。
論文 参考訳(メタデータ) (2023-04-13T17:34:44Z) - Global and Preference-based Optimization with Mixed Variables using Piecewise Affine Surrogates [0.6083861980670925]
本稿では,線形制約付き混合変数問題の解法として,新しいサロゲートに基づく大域的最適化アルゴリズムを提案する。
目的関数はブラックボックスとコスト対評価であり、線形制約は予測不可能な事前知識である。
本稿では,2種類の探索関数を導入し,混合整数線形計画解法を用いて実現可能な領域を効率的に探索する。
論文 参考訳(メタデータ) (2023-02-09T15:04:35Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Learning Proximal Operators to Discover Multiple Optima [66.98045013486794]
非家族問題における近位演算子を学習するためのエンドツーエンド手法を提案する。
本手法は,弱い目的と穏やかな条件下では,世界規模で収束することを示す。
論文 参考訳(メタデータ) (2022-01-28T05:53:28Z) - Outlier-Robust Sparse Estimation via Non-Convex Optimization [73.18654719887205]
空間的制約が存在する場合の高次元統計量と非破壊的最適化の関連について検討する。
これらの問題に対する新規で簡単な最適化法を開発した。
結論として、効率よくステーションに収束する一階法は、これらのタスクに対して効率的なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-09-23T17:38:24Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - Partitioned Least Squares [3.372747046563984]
新たな定式化は凸ではなく,この問題に対処するための2つの代替手法を提供する。
完全性のために、分割数が大きすぎる場合に正確な方法の代わりに使用できる代替分岐および有界アルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-06-29T17:10:32Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。