論文の概要: A generalized linear joint trained framework for semi-supervised
learning of sparse features
- arxiv url: http://arxiv.org/abs/2006.01671v2
- Date: Fri, 2 Oct 2020 12:24:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 00:03:38.562297
- Title: A generalized linear joint trained framework for semi-supervised
learning of sparse features
- Title(参考訳): スパース特徴の半教師付き学習のための一般化線形共同学習フレームワーク
- Authors: Juan C. Laria and Line H. Clemmensen and Bjarne K. Ersb{\o}ll
- Abstract要約: 弾性ネットは、最も広く使われている正規化アルゴリズムの一つである。
本稿では,一般化線形モデル推定の文脈におけるスパース特徴の半教師付き学習のための新しい解を提案する。
- 参考スコア(独自算出の注目度): 4.511923587827301
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The elastic-net is among the most widely used types of regularization
algorithms, commonly associated with the problem of supervised generalized
linear model estimation via penalized maximum likelihood. Its nice properties
originate from a combination of $\ell_1$ and $\ell_2$ norms, which endow this
method with the ability to select variables taking into account the
correlations between them. In the last few years, semi-supervised approaches,
that use both labeled and unlabeled data, have become an important component in
the statistical research. Despite this interest, however, few researches have
investigated semi-supervised elastic-net extensions. This paper introduces a
novel solution for semi-supervised learning of sparse features in the context
of generalized linear model estimation: the generalized semi-supervised
elastic-net (s2net), which extends the supervised elastic-net method, with a
general mathematical formulation that covers, but is not limited to, both
regression and classification problems. We develop a flexible and fast
implementation for s2net in R, and its advantages are illustrated using both
real and synthetic data sets.
- Abstract(参考訳): elastic-netは最も広く使われている正規化アルゴリズムの1つであり、ペナライズされた最大確率による一般化線形モデル推定の教師付き問題とよく関連している。
その優れた性質は、$\ell_1$と$\ell_2$ normsの組み合わせから生まれ、このメソッドはそれらの相関を考慮した変数を選択できる。
近年,ラベル付きデータとラベルなしデータの両方を用いた半教師付きアプローチが,統計研究において重要な要素となっている。
しかし、この関心にもかかわらず、半教師付き弾性ネット拡張の研究はほとんどない。
本稿では、一般化線形モデル推定の文脈におけるスパース特徴の半教師付き学習のための新しい解について紹介する: 一般化半教師付き弾性ネット(s2net)は、教師付き弾性ネット法を拡張し、回帰と分類の問題の両方をカバーするが、限定的ではない一般的な数学的定式化を行う。
r における s2net のフレキシブルで高速な実装を開発し,その利点を実データと合成データの両方を用いて示す。
関連論文リスト
- Iterative Reweighted Framework Based Algorithms for Sparse Linear Regression with Generalized Elastic Net Penalty [0.3124884279860061]
弾性ネットペナルティはパラメータ回帰と変数選択のための高次元統計学においてしばしば用いられる。
経験的証拠は、$ell_q$-norm のペナルティが $ell_r$-norm のペナルティよりもよく退行することを示している。
局所的なLipschitz連続$epsilon$-approximation to $ell_q$-norm に基づく2つの効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-11-22T11:55:37Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Provably tuning the ElasticNet across instances [53.0518090093538]
我々は、複数の問題インスタンスにまたがるリッジ回帰、LASSO、ElasticNetの正規化パラメータをチューニングする問題を考察する。
我々の結果は、この重要な問題に対する学習理論による最初の一般的な保証である。
論文 参考訳(メタデータ) (2022-07-20T21:22:40Z) - Intrinsic dimensionality and generalization properties of the
$\mathcal{R}$-norm inductive bias [4.37441734515066]
$mathcalR$-normは、2層ニューラルネットワークの誘導バイアスの基礎である。
これらの補間子は,データに適合するリッジ関数があっても,本質的に多変量関数であることがわかった。
論文 参考訳(メタデータ) (2022-06-10T18:33:15Z) - The Interplay Between Implicit Bias and Benign Overfitting in Two-Layer
Linear Networks [51.1848572349154]
ノイズの多いデータに完全に適合するニューラルネットワークモデルは、見当たらないテストデータにうまく一般化できる。
我々は,2層線形ニューラルネットワークを2乗損失の勾配流で補間し,余剰リスクを導出する。
論文 参考訳(メタデータ) (2021-08-25T22:01:01Z) - Dimension Free Generalization Bounds for Non Linear Metric Learning [61.193693608166114]
我々はスパース体制と非スパース体制という2つの体制に対して一様一般化境界を提供する。
解の異なる新しい性質を頼りにすることで、次元自由一般化保証を提供することができることを示す。
論文 参考訳(メタデータ) (2021-02-07T14:47:00Z) - Structure Learning in Inverse Ising Problems Using $\ell_2$-Regularized
Linear Estimator [8.89493507314525]
モデルミスマッチにも拘わらず,正則化を伴わずに線形回帰を用いてネットワーク構造を完璧に識別できることを示す。
本稿では,2段階推定器を提案する。第1段階では隆起回帰を用い,比較的小さな閾値で推算を行う。
適切な正規化係数としきい値を持つ推定器は、0M/N1$でもネットワーク構造の完全同定を実現する。
論文 参考訳(メタデータ) (2020-08-19T09:11:33Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Slice Sampling for General Completely Random Measures [74.24975039689893]
本稿では, 後続推定のためのマルコフ連鎖モンテカルロアルゴリズムについて, 補助スライス変数を用いてトランケーションレベルを適応的に設定する。
提案アルゴリズムの有効性は、いくつかの一般的な非パラメトリックモデルで評価される。
論文 参考訳(メタデータ) (2020-06-24T17:53:53Z) - Optimal Regularization Can Mitigate Double Descent [29.414119906479954]
最適正則化を用いて二重発振現象を回避できるかどうかを検討した。
我々は、最適に調整された$ell$正規化が、ニューラルネットワークを含むより一般的なモデルの2重降下を可能にすることを実証的に実証した。
論文 参考訳(メタデータ) (2020-03-04T05:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。