論文の概要: Adaptive Generation Model: A New Ensemble Method
- arxiv url: http://arxiv.org/abs/2009.06332v1
- Date: Mon, 14 Sep 2020 11:34:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 11:42:29.446094
- Title: Adaptive Generation Model: A New Ensemble Method
- Title(参考訳): 適応生成モデル:新しいアンサンブル法
- Authors: Jiacheng Ruan and Jiahao Li
- Abstract要約: 本稿では,gcForestのアイデア,すなわち適応生成モデル(AGM)に基づくスタックモデルの改良を提案する。
これは、各層モデルの幅を広げるために水平方向だけでなく、垂直方向にも適応生成を行い、モデルの深さを拡大することを意味する。
- 参考スコア(独自算出の注目度): 9.929475689375167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a common method in Machine Learning, Ensemble Method is used to train
multiple models from a data set and obtain better results through certain
combination strategies. Stacking method, as representatives of Ensemble
Learning methods, is often used in Machine Learning Competitions such as
Kaggle. This paper proposes a variant of Stacking Model based on the idea of
gcForest, namely Adaptive Generation Model (AGM). It means that the adaptive
generation is performed not only in the horizontal direction to expand the
width of each layer model, but also in the vertical direction to expand the
depth of the model. For base models of AGM, they all come from preset basic
Machine Learning Models. In addition, a feature augmentation method is added
between layers to further improve the overall accuracy of the model. Finally,
through comparative experiments on 7 data sets, the results show that the
accuracy of AGM are better than its previous models.
- Abstract(参考訳): 機械学習の一般的な方法として、Ensemble Methodはデータセットから複数のモデルをトレーニングし、特定の組み合わせ戦略によってより良い結果を得るために使われる。
Ensemble Learningメソッドの代表としてスタック方式は、Kaggleのような機械学習コンペティションでよく使用される。
本稿では,gcForest,すなわち適応生成モデル(Adaptive Generation Model, AGM)のアイデアに基づく,スタックモデルの一種を提案する。
適応生成は、各層モデルの幅を広げるために水平方向だけでなく、モデルの深さを広げるために垂直方向においても行われることを意味する。
AGMのベースモデルの場合、それらはすべてプリセットされた基本的な機械学習モデルに由来する。
さらに、モデル全体の精度をさらに向上させるために、レイヤ間で機能拡張法を追加する。
最後に、7つのデータセットの比較実験により、AGMの精度は以前のモデルより優れていることが示された。
関連論文リスト
- A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - Model-GLUE: Democratized LLM Scaling for A Large Model Zoo in the Wild [84.57103623507082]
本稿では,全体論的な大規模言語モデルスケーリングガイドラインであるModel-GLUEを紹介する。
既存のスケーリングテクニック,特に選択的マージ,および混合の変種をベンチマークする。
次に、異種モデル動物園の選択と集約のための最適な戦略を定式化する。
我々の手法は、マージ可能なモデルのクラスタリング、最適なマージ戦略選択、クラスタの統合を含む。
論文 参考訳(メタデータ) (2024-10-07T15:55:55Z) - Multidimensional Item Response Theory in the Style of Collaborative
Filtering [0.8057006406834467]
本稿では,多次元項目応答理論(MIRT)に対する機械学習手法を提案する。
協調フィルタリングに触発されて、多くのMIRTモデルを含むモデルの一般的なクラスを定義します。
本稿では, 個人モデルとクロスバリデーションを推定し, 最適動作モデルを選択するために, ペナル化結合最大度(JML)の使用について論じる。
論文 参考訳(メタデータ) (2023-01-03T00:56:27Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Model ensemble instead of prompt fusion: a sample-specific knowledge
transfer method for few-shot prompt tuning [85.55727213502402]
我々は、ソースタスクのソフトプロンプトから知識を伝達することで、プロンプトチューニングにおける数ショットのパフォーマンスを改善することに集中する。
我々はソースモデル(SESoM)のサンプル固有アンサンブルを提案する。
SESoMは、ソースモデルが出力されるときに、ターゲットの各サンプルに対するソースモデルのコントリビューションを個別に調整することを学ぶ。
論文 参考訳(メタデータ) (2022-10-23T01:33:16Z) - Meta-Ensemble Parameter Learning [35.6391802164328]
本稿では,メタラーニング手法を用いて,単一モデルのパラメータを直接予測できるかどうかを考察する。
WeightFormerは、トランスフォーマーベースのモデルで、フォワードパスの層で生徒のネットワーク重みを予測できる。
論文 参考訳(メタデータ) (2022-10-05T00:47:24Z) - CAMERO: Consistency Regularized Ensemble of Perturbed Language Models
with Weight Sharing [83.63107444454938]
本稿では,CAMEROと呼ばれる摂動モデルに基づく一貫性規則化アンサンブル学習手法を提案する。
具体的には、すべてのモデルで底層重みを共有し、異なるモデルの隠れ表現に異なる摂動を適用し、モデルの多様性を効果的に促進することができる。
大規模言語モデルを用いた実験により,CAMEROはアンサンブルモデルの一般化性能を大幅に向上することが示された。
論文 参考訳(メタデータ) (2022-04-13T19:54:51Z) - Multiple Run Ensemble Learning withLow-Dimensional Knowledge Graph
Embeddings [4.317340121054659]
知識グラフ埋め込み(KGE)モデルのためのシンプルで効果的なパフォーマンス向上戦略を提案する。
モデルのトレーニングを200の埋め込みサイズと並行して6回繰り返し、テストのために6つの別々のモデルを組み合わせています。
このアプローチにより,様々なグラフパターンをモデル化する上で,様々なモデルがよりうまく対処できることが示される。
論文 参考訳(メタデータ) (2021-04-11T12:26:50Z) - StackGenVis: Alignment of Data, Algorithms, and Models for Stacking Ensemble Learning Using Performance Metrics [4.237343083490243]
機械学習(ML)では、バッグング、ブースティング、スタックングといったアンサンブル手法が広く確立されている。
StackGenVisは、スタック化された一般化のためのビジュアル分析システムである。
論文 参考訳(メタデータ) (2020-05-04T15:43:55Z) - When Ensembling Smaller Models is More Efficient than Single Large
Models [52.38997176317532]
アンサンブルは高い精度で単一モデルより優れており、計算に要する総FLOPは少ない。
これは、アンサンブルの出力の多様性がより大きなモデルを訓練するよりも効率的であることを示す興味深い観察結果である。
論文 参考訳(メタデータ) (2020-05-01T18:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。