論文の概要: An efficient combination strategy for hybird quantum ensemble classifier
- arxiv url: http://arxiv.org/abs/2210.06785v1
- Date: Thu, 13 Oct 2022 06:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 17:36:02.657947
- Title: An efficient combination strategy for hybird quantum ensemble classifier
- Title(参考訳): ハイバード量子アンサンブル分類器の効率的な組み合わせ戦略
- Authors: Xiao-Ying Zhang and Ming-Ming Wang
- Abstract要約: 機械学習では、限られた特徴空間から高い堅牢性と強力な一般化能力を持つモデルを学習する方法が難しい問題である。
アンサンブルラーニング(EL)の鍵は、基礎学習者のパフォーマンスと組み合わせ戦略の選択という2つの側面にある。
本稿では,量子と古典の利点を組み合わせたハイブリッドELフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.267818027459309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum machine learning has shown advantages in many ways compared to
classical machine learning. In machine learning, a difficult problem is how to
learn a model with high robustness and strong generalization ability from a
limited feature space. Combining multiple models as base learners, ensemble
learning (EL) can effectively improve the accuracy, generalization ability, and
robustness of the final model. The key to EL lies in two aspects, the
performance of base learners and the choice of the combination strategy.
Recently, quantum EL (QEL) has been studied. However, existing combination
strategies in QEL are inadequate in considering the accuracy and variance among
base learners. This paper presents a hybrid EL framework that combines quantum
and classical advantages. More importantly, we propose an efficient combination
strategy for improving the accuracy of classification in the framework. We
verify the feasibility and efficiency of our framework and strategy by using
the MNIST dataset. Simulation results show that the hybrid EL framework with
our combination strategy not only has a higher accuracy and lower variance than
the single model without the ensemble, but also has a better accuracy than the
majority voting and the weighted voting strategies in most cases.
- Abstract(参考訳): 量子機械学習は、古典的機械学習に比べて多くの点で利点を示している。
機械学習では、限られた特徴空間から高い堅牢性と強力な一般化能力を持つモデルを学習する方法が難しい問題である。
複数のモデルをベースラーナーとして組み合わせることで、アンサンブル学習(EL)は最終モデルの精度、一般化能力、堅牢性を効果的に向上させることができる。
ELの鍵は、基礎学習者のパフォーマンスと組み合わせ戦略の選択の2つの側面にある。
近年、量子EL(QEL)の研究が行われている。
しかし、QELにおける既存の組み合わせ戦略は、基礎学習者間の精度とばらつきを考慮しては不十分である。
本稿では,量子と古典の利点を組み合わせたハイブリッドELフレームワークを提案する。
さらに,フレームワークの分類精度を向上させるための効率的な組み合わせ戦略を提案する。
MNISTデータセットを用いて,フレームワークと戦略の有効性と有効性を検証する。
シミュレーションの結果、我々の組み合わせ戦略によるハイブリッドELフレームワークは、アンサンブルのない単一モデルよりも精度が高く、分散度も低いだけでなく、ほとんどの場合、多数投票や重み付けされた投票戦略よりも精度が高いことがわかった。
関連論文リスト
- LLaMA-Berry: Pairwise Optimization for O1-like Olympiad-Level Mathematical Reasoning [56.273799410256075]
このフレームワークはMonte Carlo Tree Search (MCTS)と反復的なSelf-Refineを組み合わせて推論パスを最適化する。
このフレームワークは、一般的なベンチマークと高度なベンチマークでテストされており、探索効率と問題解決能力の点で優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-03T18:12:29Z) - Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - Regularized boosting with an increasing coefficient magnitude stop
criterion as meta-learner in hyperparameter optimization stacking ensemble [0.0]
本稿ではHPOにおけるアンサンブルを積み重ねるためのメタラーナーについて検討する。
マルチコリニアリティの効果を低減し,アンサンブル学習プロセスの一般化能力を考慮した。
また、古典的なブースティング法における暗黙の正規化と、HPO用に特別に設計されたブースティングにのみ適する新しい非パラメトリックストップ基準を提案する。
論文 参考訳(メタデータ) (2024-02-02T13:03:15Z) - Context-Aware Ensemble Learning for Time Series [11.716677452529114]
本稿では,ベースモデルの特徴ベクトルの結合である特徴のスーパーセットを用いて,ベースモデル予測を効果的に組み合わせたメタ学習手法を提案する。
我々のモデルは、ベースモデルの予測を機械学習アルゴリズムの入力として使用するのではなく、問題の状態に基づいて各時点における最良の組み合わせを選択する。
論文 参考訳(メタデータ) (2022-11-30T10:36:13Z) - CascadER: Cross-Modal Cascading for Knowledge Graph Link Prediction [22.96768147978534]
本稿では,効率を向上しつつ,完全アンサンブルのランキング精度を維持するための階層型ランキングアーキテクチャCascaderを提案する。
CascadER は LM を用いて、より効率的な KGE の出力を再現し、KGE の精度向上を最大化しつつ、LM を最小限に呼び出すための適応的なサブセット選択方式に依存している。
実験により, モデル間の多様性と個々のモデルの信頼性信号の保存がカスケーダの有効性を説明するのに有効であることがわかった。
論文 参考訳(メタデータ) (2022-05-16T22:55:45Z) - Yordle: An Efficient Imitation Learning for Branch and Bound [1.6758573326215689]
本研究では,2021年のNeurIPS Machine Learning for Combinatorial Optimization (ML4CO)コンペティションにおいて,チームqqyが得たソリューションと洞察を紹介する。
我々のソリューションは、ブランチ・アンド・バウンド(B&B)のパフォーマンス改善のための、Yordleという名前の非常に効率的な模倣学習フレームワークです。
我々の実験では、Yordleは、決定モデルのトレーニングに要する時間とデータの量を大幅に削減しながら、競争によって採用されるベースラインアルゴリズムを大幅に上回っている。
論文 参考訳(メタデータ) (2022-02-02T14:46:30Z) - Sparse MoEs meet Efficient Ensembles [49.313497379189315]
このようなモデルの2つの一般的なクラス、すなわちニューラルネットワークのアンサンブルと専門家のスパースミックス(スパースMoE)の相互作用について研究する。
Efficient Ensemble of Experts (E$3$)は、両モデルのクラスを最大限に活用するスケーラブルでシンプルなMoEのアンサンブルであり、深いアンサンブルよりも最大45%少ないFLOPを使用する。
論文 参考訳(メタデータ) (2021-10-07T11:58:35Z) - Ensemble Learning-Based Approach for Improving Generalization Capability
of Machine Reading Comprehension Systems [0.7614628596146599]
機械読み取り(MRC)は、近年、多くの開発が成功した自然言語処理の活発な分野である。
分布精度が高いにもかかわらず、これらのモデルには2つの問題がある。
本稿では,大規模モデルを再学習することなく,MCCシステムの一般化を改善するためのアンサンブル学習手法の効果について検討する。
論文 参考訳(メタデータ) (2021-07-01T11:11:17Z) - A Bi-Level Framework for Learning to Solve Combinatorial Optimization on
Graphs [91.07247251502564]
本稿では,2つの世界の長所を結合するハイブリッドな手法を提案する。この手法では,グラフを最適化する上層学習手法とバイレベルフレームワークを開発する。
このような二段階のアプローチは、元のハードCOでの学習を単純化し、モデルキャパシティの需要を効果的に軽減することができる。
論文 参考訳(メタデータ) (2021-06-09T09:18:18Z) - MC-BERT: Efficient Language Pre-Training via a Meta Controller [96.68140474547602]
大規模事前学習は計算コストが高い。
事前トレーニングを加速する初期の試みであるELECTRAは、各入力トークンがジェネレータに置き換えられたかどうかを予測する識別モデルを訓練している。
本稿では,MC-BERTというメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T09:22:19Z) - Learning to Select Base Classes for Few-shot Classification [96.92372639495551]
我々は、数ショットモデルの一般化性能を示す指標として、類似度比を用いる。
次に、類似度比に対する部分モジュラー最適化問題として基底クラス選択問題を定式化する。
論文 参考訳(メタデータ) (2020-04-01T09:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。