論文の概要: Improved Quantum Boosting
- arxiv url: http://arxiv.org/abs/2009.08360v1
- Date: Thu, 17 Sep 2020 15:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 12:25:07.118773
- Title: Improved Quantum Boosting
- Title(参考訳): 量子ブースティングの改良
- Authors: Adam Izdebski and Ronald de Wolf
- Abstract要約: Arunachalam と Maity は、Freund と Schapire の AdaBoost アルゴリズムと近似カウントのための量子アルゴリズムを組み合わせることで、最初の量子改良を行った。
本稿では,ServedioのSmoothBoostアルゴリズムに基づく,より高速でシンプルな量子ブースティングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 1.0660480034605238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Boosting is a general method to convert a weak learner (which generates
hypotheses that are just slightly better than random) into a strong learner
(which generates hypotheses that are much better than random). Recently,
Arunachalam and Maity gave the first quantum improvement for boosting, by
combining Freund and Schapire's AdaBoost algorithm with a quantum algorithm for
approximate counting. Their booster is faster than classical boosting as a
function of the VC-dimension of the weak learner's hypothesis class, but worse
as a function of the quality of the weak learner. In this paper we give a
substantially faster and simpler quantum boosting algorithm, based on
Servedio's SmoothBoost algorithm.
- Abstract(参考訳): boostingは、弱い学習者(ランダムより少し良い仮説を生成する)を強い学習者(ランダムよりはるかに良い仮説を生成する)に変換する一般的な方法である。
最近、Arunachalam と Maity は、Freund と Schapire の AdaBoost アルゴリズムと近似カウントのための量子アルゴリズムを組み合わせることで、最初の量子改良を行った。
彼らのブースターは、弱い学習者の仮説クラスのVC次元の関数として古典的なブースティングよりも速いが、弱い学習者の質の関数として悪い。
本稿では,ServedioのSmoothBoostアルゴリズムに基づく,より高速でシンプルな量子ブースティングアルゴリズムを提案する。
関連論文リスト
- How to Boost Any Loss Function [63.573324901948716]
損失関数はブースティングにより最適化可能であることを示す。
また、古典的な$0の注文設定でまだ不可能な成果を達成できることも示しています。
論文 参考訳(メタデータ) (2024-07-02T14:08:23Z) - Supervised Learning Guarantee for Quantum AdaBoost [7.473180902609473]
ノイズの多い中間スケール量子(NISQ)時代には、変分量子アルゴリズムは量子回路の量子ビット数の制限と浅い深さのために制約される。
本稿では,量子適応ブースティング(AdaBoost)の学習保証を理論的に確立し,数値的に検証する。
我々の研究は、現在のNISQ時代において、適切なアンサンブル法を導入することは、量子機械学習アルゴリズムの性能向上に特に有用であることを示している。
論文 参考訳(メタデータ) (2024-02-04T07:18:44Z) - Multiclass Boosting: Simple and Intuitive Weak Learning Criteria [72.71096438538254]
実現可能性の仮定を必要としない,単純かつ効率的なブースティングアルゴリズムを提案する。
本稿では,リスト学習者の向上に関する新たな結果と,マルチクラスPAC学習の特徴付けのための新しい証明を提案する。
論文 参考訳(メタデータ) (2023-07-02T19:26:58Z) - AdaBoost is not an Optimal Weak to Strong Learner [11.003568749905359]
AdaBoostのサンプルの複雑さや他の古典的なバリエーションは、強学習者の所望の精度において、少なくとも1つの対数係数によって最適以下であることが示される。
論文 参考訳(メタデータ) (2023-01-27T07:37:51Z) - Online Agnostic Multiclass Boosting [20.22409095000365]
オンライン・アグノスティック・ミュートリクラス分類のための最初のブースティング・アルゴリズムを提案する。
我々の削減により、統計的非依存、オンライン実現可能、および統計的実現可能なマルチクラスブースティングのためのアルゴリズムの構築が可能となった。
論文 参考訳(メタデータ) (2022-05-30T13:59:55Z) - Entanglement and coherence in Bernstein-Vazirani algorithm [58.720142291102135]
Bernstein-Vaziraniアルゴリズムは、オラクルに符号化されたビット文字列を決定できる。
我々はベルンシュタイン・ヴァジラニアルゴリズムの量子資源を詳細に分析する。
絡み合いがない場合、初期状態における量子コヒーレンス量とアルゴリズムの性能が直接関係していることが示される。
論文 参考訳(メタデータ) (2022-05-26T20:32:36Z) - Quantum Boosting using Domain-Partitioning Hypotheses [0.9264464791978363]
ブースティングは、弱い学習者をPAC学習フレームワークの強力な学習者に変換するアンサンブル学習法である。
Q-RealBoostは、弱い学習者のバイアスと弱い学習者がターゲット概念クラスを学習するのに要する時間の両方の観点から、Q-AdaBoostを高速化することを示した。
論文 参考訳(メタデータ) (2021-10-25T10:46:13Z) - Boosting for Online Convex Optimization [64.15578413206715]
多数の専門家とオンライン凸最適化の意思決定フレームワークを検討します。
弱学習アルゴリズムは、基本クラスの専門家に対するおよその後悔を保証するメカニズムとして定義します。
ベースクラスの凸船体に対するほぼ最適の後悔を保証する効率的なブースティングアルゴリズムを提供します。
論文 参考訳(メタデータ) (2021-02-18T12:30:49Z) - Quantum Inspired Adaptive Boosting [0.0]
量子アンサンブル法は古典的アルゴリズムに勝らないことを示す。
本稿では,量子アンサンブル法と適応的なブースティングを組み合わせた手法を提案する。
アルゴリズムはテストされ、公開データセット上のAdaBoostアルゴリズムに匹敵することがわかった。
論文 参考訳(メタデータ) (2021-02-01T16:33:14Z) - Online Agnostic Boosting via Regret Minimization [47.19178618537368]
Boostingは、弱い学習ルールを集約するというアイデアに基づいて、広く使われている機械学習アプローチである。
オンラインブースティングアルゴリズムとしては,最弱の学習者に対して,自明な後悔の保証しか持たないことを考えると,そのアルゴリズムは,サブ線形後悔の強い学習者に促進する。
論文 参考訳(メタデータ) (2020-03-02T19:21:25Z) - On the Dual Formulation of Boosting Algorithms [92.74617630106559]
AdaBoost,LogitBoost,Soft-marginBoostのラグランジュ問題は、すべて一般化されたヒンジ損失エントロピーの双対問題であることを示す。
これらのブースティングアルゴリズムの2つの問題を見て、より良いマージン分布を維持するという観点から、ブースティングの成功を理解することができることを示す。
論文 参考訳(メタデータ) (2009-01-23T02:14:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。