論文の概要: Quantum Boosting using Domain-Partitioning Hypotheses
- arxiv url: http://arxiv.org/abs/2110.12793v1
- Date: Mon, 25 Oct 2021 10:46:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 18:24:36.188965
- Title: Quantum Boosting using Domain-Partitioning Hypotheses
- Title(参考訳): 領域分割仮説を用いた量子ブースティング
- Authors: Debajyoti Bera, Sagnik Chatterjee
- Abstract要約: ブースティングは、弱い学習者をPAC学習フレームワークの強力な学習者に変換するアンサンブル学習法である。
Q-RealBoostは、弱い学習者のバイアスと弱い学習者がターゲット概念クラスを学習するのに要する時間の両方の観点から、Q-AdaBoostを高速化することを示した。
- 参考スコア(独自算出の注目度): 0.9264464791978363
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Boosting is an ensemble learning method that converts a weak learner into a
strong learner in the PAC learning framework. Freund and Schapire gave the
first classical boosting algorithm for binary hypothesis known as AdaBoost, and
this was recently adapted into a quantum boosting algorithm by Arunachalam et
al. Their quantum boosting algorithm (which we refer to as Q-AdaBoost) is
quadratically faster than the classical version in terms of the VC-dimension of
the hypothesis class of the weak learner but polynomially worse in the bias of
the weak learner.
In this work we design a different quantum boosting algorithm that uses
domain partitioning hypotheses that are significantly more flexible than those
used in prior quantum boosting algorithms in terms of margin calculations. Our
algorithm Q-RealBoost is inspired by the "Real AdaBoost" (aka. RealBoost)
extension to the original AdaBoost algorithm. Further, we show that Q-RealBoost
provides a polynomial speedup over Q-AdaBoost in terms of both the bias of the
weak learner and the time taken by the weak learner to learn the target concept
class.
- Abstract(参考訳): boostingは、弱い学習者をpac学習フレームワークの強力な学習者に変換するアンサンブル学習方法である。
Freund と Schapire は AdaBoost として知られる二項仮説の古典的ブースティングアルゴリズムを初めて提供し、最近 Arunachalam らによって量子ブースティングアルゴリズムに適応した。
量子ブースティングアルゴリズム(Q-AdaBoostと呼ぶ)は、弱い学習者の仮説クラスのVC次元の観点からは古典版よりも2次的に速いが、弱い学習者のバイアスでは多項式的に劣る。
本研究では,従来の量子ブースティングアルゴリズムよりもはるかに柔軟な領域分割仮説を用いた異なる量子ブースティングアルゴリズムを,マージン計算の観点から設計する。
我々のアルゴリズムQ-RealBoostは、オリジナルのAdaBoostアルゴリズムへの"Real AdaBoost"(別名RealBoost)拡張にインスパイアされている。
さらに,q-realboostは,弱学習者のバイアスと弱学習者が目標概念クラスを学ぶのにかかる時間の両方の観点から,q-adaboost上で多項式の高速化を提供することを示した。
関連論文リスト
- How to Boost Any Loss Function [63.573324901948716]
損失関数はブースティングにより最適化可能であることを示す。
また、古典的な$0の注文設定でまだ不可能な成果を達成できることも示しています。
論文 参考訳(メタデータ) (2024-07-02T14:08:23Z) - Supervised Learning Guarantee for Quantum AdaBoost [7.473180902609473]
ノイズの多い中間スケール量子(NISQ)時代には、変分量子アルゴリズムは量子回路の量子ビット数の制限と浅い深さのために制約される。
本稿では,量子適応ブースティング(AdaBoost)の学習保証を理論的に確立し,数値的に検証する。
我々の研究は、現在のNISQ時代において、適切なアンサンブル法を導入することは、量子機械学習アルゴリズムの性能向上に特に有用であることを示している。
論文 参考訳(メタデータ) (2024-02-04T07:18:44Z) - Multiclass Boosting: Simple and Intuitive Weak Learning Criteria [72.71096438538254]
実現可能性の仮定を必要としない,単純かつ効率的なブースティングアルゴリズムを提案する。
本稿では,リスト学習者の向上に関する新たな結果と,マルチクラスPAC学習の特徴付けのための新しい証明を提案する。
論文 参考訳(メタデータ) (2023-07-02T19:26:58Z) - PromptBoosting: Black-Box Text Classification with Ten Forward Passes [61.38341243907045]
PromptBoostingは、LMのパラメータ、勾配、隠された表現にアクセスすることなく、ニューラルネットワークモデル(LM)からテキスト分類器を構築するためのクエリ効率のよい手順である。
実験によると、PromptBoostingは複数のブラックボックスのいくつかのショット分類タスクで最先端のパフォーマンスを達成し、既存のブラックボックスメソッドよりも10倍速くトレーニングしながら、少数ショットと標準学習のパラダイムの両方で完全な微調整をマッチまたは上回っている。
論文 参考訳(メタデータ) (2022-12-19T06:04:54Z) - Online Agnostic Multiclass Boosting [20.22409095000365]
オンライン・アグノスティック・ミュートリクラス分類のための最初のブースティング・アルゴリズムを提案する。
我々の削減により、統計的非依存、オンライン実現可能、および統計的実現可能なマルチクラスブースティングのためのアルゴリズムの構築が可能となった。
論文 参考訳(メタデータ) (2022-05-30T13:59:55Z) - Boosting for Online Convex Optimization [64.15578413206715]
多数の専門家とオンライン凸最適化の意思決定フレームワークを検討します。
弱学習アルゴリズムは、基本クラスの専門家に対するおよその後悔を保証するメカニズムとして定義します。
ベースクラスの凸船体に対するほぼ最適の後悔を保証する効率的なブースティングアルゴリズムを提供します。
論文 参考訳(メタデータ) (2021-02-18T12:30:49Z) - MP-Boost: Minipatch Boosting via Adaptive Feature and Observation
Sampling [0.0]
MP-BoostはAdaBoostを緩くベースとしたアルゴリズムで、インスタンスと機能の小さなサブセットを適応的に選択することで学習する。
様々な二項分類タスクにおいて,提案手法の解釈可能性,比較精度,計算時間について実験的に検証した。
論文 参考訳(メタデータ) (2020-11-14T04:26:13Z) - Improved Quantum Boosting [1.0660480034605238]
Arunachalam と Maity は、Freund と Schapire の AdaBoost アルゴリズムと近似カウントのための量子アルゴリズムを組み合わせることで、最初の量子改良を行った。
本稿では,ServedioのSmoothBoostアルゴリズムに基づく,より高速でシンプルな量子ブースティングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-17T15:16:42Z) - Online Agnostic Boosting via Regret Minimization [47.19178618537368]
Boostingは、弱い学習ルールを集約するというアイデアに基づいて、広く使われている機械学習アプローチである。
オンラインブースティングアルゴリズムとしては,最弱の学習者に対して,自明な後悔の保証しか持たないことを考えると,そのアルゴリズムは,サブ線形後悔の強い学習者に促進する。
論文 参考訳(メタデータ) (2020-03-02T19:21:25Z) - On the Dual Formulation of Boosting Algorithms [92.74617630106559]
AdaBoost,LogitBoost,Soft-marginBoostのラグランジュ問題は、すべて一般化されたヒンジ損失エントロピーの双対問題であることを示す。
これらのブースティングアルゴリズムの2つの問題を見て、より良いマージン分布を維持するという観点から、ブースティングの成功を理解することができることを示す。
論文 参考訳(メタデータ) (2009-01-23T02:14:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。