論文の概要: Self-Weighted Ensemble Method to Adjust the Influence of Individual
Models based on Reliability
- arxiv url: http://arxiv.org/abs/2104.04120v1
- Date: Fri, 9 Apr 2021 00:20:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 14:06:10.956339
- Title: Self-Weighted Ensemble Method to Adjust the Influence of Individual
Models based on Reliability
- Title(参考訳): 信頼性に基づく個人モデルの影響調整のための自己重み付けアンサンブル法
- Authors: YeongHyeon Park, JoonSung Lee, Wonseok Park
- Abstract要約: SWE(Self-Weighted Ensemble)を用いたシンプルで改良されたアンサンブル法を提案する。
SWEはその信頼性によって各モデルの重み付けを行う。
SWEを用いた性能は従来のアンサンブル法よりも0.033%高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image classification technology and performance based on Deep Learning have
already achieved high standards. Nevertheless, many efforts have conducted to
improve the stability of classification via ensembling. However, the existing
ensemble method has a limitation in that it requires extra effort including
time consumption to find the weight for each model output. In this paper, we
propose a simple but improved ensemble method, naming with Self-Weighted
Ensemble (SWE), that places the weight of each model via its verification
reliability. The proposed ensemble method, SWE, reduces overall efforts for
constructing a classification system with varied classifiers. The performance
using SWE is 0.033% higher than the conventional ensemble method. Also, the
percent of performance superiority to the previous model is up to 73.333%
(ratio of 8:22).
- Abstract(参考訳): ディープラーニングに基づく画像分類技術と性能はすでに高い水準に達している。
それでも、アンサンブルによる分類の安定性向上に多くの努力がなされている。
しかし,既存のアンサンブル法では,各モデル出力の重み付けに要する時間を含む余分な労力が制限されている。
本稿では,各モデルの重みを検証信頼性により配置する自己重み付けアンサンブル (swe) を用いた簡易で改良されたアンサンブル法を提案する。
提案手法である swe は, 分類器を多用した分類システムを構築するための総合的な努力を減少させる。
SWEによる性能は従来のアンサンブル法よりも0.033%高い。
また、前モデルに比べてパフォーマンス上の優位性は73.333%(比8:22)である。
関連論文リスト
- Few-shot Tuning of Foundation Models for Class-incremental Learning [19.165004570789755]
本稿では,新しいクラスの基礎モデルを数ショット設定で継続的にチューニングするための新しいアプローチを提案する。
CoACTは、ベンチマーク評価において現在のSOTAよりも13.5%改善されている。
論文 参考訳(メタデータ) (2024-05-26T16:41:03Z) - Diversity-Aware Ensembling of Language Models Based on Topological Data
Analysis [3.1734682813501514]
既存のアプローチは主に、各モデルに等しい重みを持つアンサンブルによる予測の単純な平均化に依存している。
我々は,NLPモデルのアンサンブルに対する重み付けを,個々の性能の知識だけでなく,互いに類似した知識を用いて推定することを提案する。
論文 参考訳(メタデータ) (2024-02-22T00:04:21Z) - Not All Steps are Equal: Efficient Generation with Progressive Diffusion
Models [62.155612146799314]
ステップ適応トレーニングと呼ばれる新しい2段階のトレーニング戦略を提案する。
初期段階では、ベース・デノナイジング・モデルはすべてのタイムステップを包含するように訓練される。
タイムステップを別々のグループに分割し、各グループ内でモデルを微調整して、特殊な認知機能を実現します。
論文 参考訳(メタデータ) (2023-12-20T03:32:58Z) - Uncertainty Guided Adaptive Warping for Robust and Efficient Stereo
Matching [77.133400999703]
相関に基づくステレオマッチングは優れた性能を達成した。
固定モデルによる現在のメソッドは、さまざまなデータセットで均一に動作しない。
本稿では,ロバストなステレオマッチングのための相関を動的に計算する新しい視点を提案する。
論文 参考訳(メタデータ) (2023-07-26T09:47:37Z) - LightTS: Lightweight Time Series Classification with Adaptive Ensemble
Distillation -- Extended Version [39.07118753818186]
最先端の分類精度は、しばしばアンサンブル学習によって達成される。
大規模なアンサンブルを軽量モデルに圧縮するLightTSフレームワークを提案する。
実世界の時系列セット128と、異なるタイプのベースモデルを用いた実験について報告する。
論文 参考訳(メタデータ) (2023-02-24T16:20:40Z) - Weighted Ensemble Self-Supervised Learning [67.24482854208783]
組み立ては、モデルパフォーマンスを高めるための強力なテクニックであることが証明されている。
我々は,データ依存型重み付きクロスエントロピー損失を許容するフレームワークを開発した。
提案手法は、ImageNet-1K上での複数の評価指標において、両者に優れる。
論文 参考訳(メタデータ) (2022-11-18T02:00:17Z) - Model ensemble instead of prompt fusion: a sample-specific knowledge
transfer method for few-shot prompt tuning [85.55727213502402]
我々は、ソースタスクのソフトプロンプトから知識を伝達することで、プロンプトチューニングにおける数ショットのパフォーマンスを改善することに集中する。
我々はソースモデル(SESoM)のサンプル固有アンサンブルを提案する。
SESoMは、ソースモデルが出力されるときに、ターゲットの各サンプルに対するソースモデルのコントリビューションを個別に調整することを学ぶ。
論文 参考訳(メタデータ) (2022-10-23T01:33:16Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - Exploiting All Samples in Low-Resource Sentence Classification: Early Stopping and Initialization Parameters [6.368871731116769]
本研究では,データやモデルの再設計を伴わないラベル付きサンプルの活用方法について論じる。
重量平均化法を用いてモデルを初期化する統合手法を提案し,全てのサンプルを非バリデーション停止法を用いて訓練する。
本結果は,トレーニング戦略の重要性を強調し,低リソース環境における統合手法が第一歩となることを示唆している。
論文 参考訳(メタデータ) (2021-11-12T22:31:47Z) - Sparse MoEs meet Efficient Ensembles [49.313497379189315]
このようなモデルの2つの一般的なクラス、すなわちニューラルネットワークのアンサンブルと専門家のスパースミックス(スパースMoE)の相互作用について研究する。
Efficient Ensemble of Experts (E$3$)は、両モデルのクラスを最大限に活用するスケーラブルでシンプルなMoEのアンサンブルであり、深いアンサンブルよりも最大45%少ないFLOPを使用する。
論文 参考訳(メタデータ) (2021-10-07T11:58:35Z) - Ensemble Learning-Based Approach for Improving Generalization Capability
of Machine Reading Comprehension Systems [0.7614628596146599]
機械読み取り(MRC)は、近年、多くの開発が成功した自然言語処理の活発な分野である。
分布精度が高いにもかかわらず、これらのモデルには2つの問題がある。
本稿では,大規模モデルを再学習することなく,MCCシステムの一般化を改善するためのアンサンブル学習手法の効果について検討する。
論文 参考訳(メタデータ) (2021-07-01T11:11:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。