論文の概要: Learning with Subset Stacking
- arxiv url: http://arxiv.org/abs/2112.06251v3
- Date: Mon, 30 Oct 2023 12:56:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 05:08:41.342914
- Title: Learning with Subset Stacking
- Title(参考訳): Subset Stackingによる学習
- Authors: S. \.Ilker Birbil, Sinan Yildirim, Kaya G\"okalp, M. Hakan Aky\"uz
- Abstract要約: 入力-出力ペアの集合から学習する新しい回帰アルゴリズムを提案する。
我々はこのアルゴリズムを「サブセット・スタックング」あるいは「LESS」と呼ぶが、これは回帰器を積み重ねる手法に似ているためである。
- 参考スコア(独自算出の注目度): 0.40964539027092906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new regression algorithm that learns from a set of input-output
pairs. Our algorithm is designed for populations where the relation between the
input variables and the output variable exhibits a heterogeneous behavior
across the predictor space. The algorithm starts with generating subsets that
are concentrated around random points in the input space. This is followed by
training a local predictor for each subset. Those predictors are then combined
in a novel way to yield an overall predictor. We call this algorithm ``LEarning
with Subset Stacking'' or LESS, due to its resemblance to the method of
stacking regressors. We compare the testing performance of LESS with
state-of-the-art methods on several datasets. Our comparison shows that LESS is
a competitive supervised learning method. Moreover, we observe that LESS is
also efficient in terms of computation time and it allows a straightforward
parallel implementation.
- Abstract(参考訳): 入力-出力ペアの集合から学習する新しい回帰アルゴリズムを提案する。
本アルゴリズムは,入力変数と出力変数の関係が予測子空間にまたがる不均一な振る舞いを示す集団を対象として設計されている。
アルゴリズムは入力空間のランダムな点を中心に集中した部分集合を生成することから始まる。
次に、各サブセットに対してローカル予測器をトレーニングする。
それらの予測器は、新しい方法で結合され、全体的な予測器となる。
我々はこのアルゴリズムを '`Larning with Subset Stacking'' あるいは LESS と呼んでいる。
LESSの試験性能といくつかのデータセットの最先端手法を比較した。
比較の結果,LESSは競合型教師あり学習手法であることがわかった。
さらに, LESSは計算時間の観点からも効率的であり, 直接並列実装が可能であることも確認した。
関連論文リスト
- Derandomizing Multi-Distribution Learning [28.514129340758938]
マルチディストリビューション学習では、複数のデータ分散でうまく動作する単一の予測子を学習する。
近年の研究では、オラクル効率のアルゴリズムにより、ほぼ最適サンプルの複雑さが達成されている。
これらのアルゴリズムは、複数の分布に対する決定論的予測子を生成するためにデランドマイズできるのだろうか?
論文 参考訳(メタデータ) (2024-09-26T06:28:56Z) - Efficient Discrepancy Testing for Learning with Distribution Shift [17.472049019016524]
局所的な一致距離をテストするための証明可能なアルゴリズムの最初のセットを提供する。
結果は、最近導入されたTestable Learning with Distribution Shiftモデルにおいて、新しい効率的な学習アルゴリズムの幅広いセットを示唆している。
論文 参考訳(メタデータ) (2024-06-13T17:51:10Z) - A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - Distributive Pre-Training of Generative Modeling Using Matrix-Product
States [0.0]
本稿では,基本的なテンソルネットワーク操作,例えば和と圧縮を利用した代替的なトレーニング手法を検討する。
トレーニングアルゴリズムは、製品状態表現におけるすべてのトレーニングデータから構築された重ね合わせ状態を圧縮する。
MNISTデータセット上でアルゴリズムをベンチマークし、新しい画像と分類タスクを生成するための妥当な結果を示す。
論文 参考訳(メタデータ) (2023-06-26T15:46:08Z) - Efficient and Local Parallel Random Walks [21.29022677162416]
ランダムウォークは、多くの機械学習アルゴリズムで使用される基本的なプリミティブである。
ランダムウォークを効率的に局所的に構築することで,この制限を克服するアルゴリズムを提案する。
本手法はメモリとラウンド効率の両方で,特に並列局所クラスタリングアルゴリズムを効率よく実現している。
論文 参考訳(メタデータ) (2021-12-01T17:06:11Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Predict then Interpolate: A Simple Algorithm to Learn Stable Classifiers [59.06169363181417]
Predict then Interpolate (PI) は環境全体にわたって安定な相関関係を学習するためのアルゴリズムである。
正しい予測と間違った予測の分布を補間することにより、不安定な相関が消えるオラクル分布を明らかにすることができる。
論文 参考訳(メタデータ) (2021-05-26T15:37:48Z) - Estimating leverage scores via rank revealing methods and randomization [50.591267188664666]
任意のランクの正方形密度あるいはスパース行列の統計レバレッジスコアを推定するアルゴリズムについて検討した。
提案手法は,高密度およびスパースなランダム化次元性還元変換の合成と階調明細化法を組み合わせることに基づく。
論文 参考訳(メタデータ) (2021-05-23T19:21:55Z) - Alleviate Exposure Bias in Sequence Prediction \\ with Recurrent Neural
Networks [47.52214243454995]
繰り返しニューラルネットワーク(RNN)を訓練する一般的な戦略は、各ステップで入力として地上の真実を取ることです。
本稿では,RNNの長期的依存関係をよりよく把握するための,完全微分可能なトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-22T06:15:22Z) - Meta-learning with Stochastic Linear Bandits [120.43000970418939]
我々は、よく知られたOFULアルゴリズムの正規化バージョンを実装するバンディットアルゴリズムのクラスを考える。
我々は,タスク数の増加とタスク分散の分散が小さくなると,タスクを個別に学習する上で,我々の戦略が大きな優位性を持つことを理論的および実験的に示す。
論文 参考訳(メタデータ) (2020-05-18T08:41:39Z) - Accelerating Feedforward Computation via Parallel Nonlinear Equation
Solving [106.63673243937492]
ニューラルネットワークの評価や自己回帰モデルからのサンプリングなどのフィードフォワード計算は、機械学習においてユビキタスである。
本稿では,非線形方程式の解法としてフィードフォワード計算の課題を定式化し,ジャコビ・ガウス・シーデル固定点法とハイブリッド法を用いて解を求める。
提案手法は, 並列化可能な繰り返し回数の削減(あるいは等値化)により, 元のフィードフォワード計算と全く同じ値が与えられることを保証し, 十分な並列化計算能力を付与する。
論文 参考訳(メタデータ) (2020-02-10T10:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。