論文の概要: The Impossibility of Parallelizing Boosting
- arxiv url: http://arxiv.org/abs/2301.09627v1
- Date: Mon, 23 Jan 2023 18:57:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 12:39:18.450078
- Title: The Impossibility of Parallelizing Boosting
- Title(参考訳): 並列化ブースティングの可能性
- Authors: Amin Karbasi, Kasper Green Larsen
- Abstract要約: 並列化促進の可能性について検討する。
私たちの主な貢献は強い負の結果であり、トレーニングに必要なコンピューティングリソースの総量に対して、大幅な並列化が急激な爆発を必要としていることを示唆している。
- 参考スコア(独自算出の注目度): 47.21831192470507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The aim of boosting is to convert a sequence of weak learners into a strong
learner. At their heart, these methods are fully sequential. In this paper, we
investigate the possibility of parallelizing boosting. Our main contribution is
a strong negative result, implying that significant parallelization of boosting
requires an exponential blow-up in the total computing resources needed for
training.
- Abstract(参考訳): 強化の目的は、弱い学習者の列を強い学習者に変換することである。
彼らの心では、これらの方法は完全にシーケンシャルです。
本稿では,並列化促進の可能性を検討する。
私たちの主な貢献は強い負の結果であり、トレーニングに必要なコンピューティングリソースの総量に対して、大幅な並列化が必要であることを示唆している。
関連論文リスト
- Chaos is a Ladder: A New Theoretical Understanding of Contrastive
Learning via Augmentation Overlap [64.60460828425502]
コントラスト学習の下流性能に関する新たな保証を提案する。
我々の新しい理論は、攻撃的なデータ強化の下で、異なるクラス内サンプルのサポートがより重なり合うという知見に基づいている。
本稿では、下流の精度とよく一致した教師なしモデル選択距離ARCを提案する。
論文 参考訳(メタデータ) (2022-03-25T05:36:26Z) - Quantum Boosting using Domain-Partitioning Hypotheses [0.9264464791978363]
ブースティングは、弱い学習者をPAC学習フレームワークの強力な学習者に変換するアンサンブル学習法である。
Q-RealBoostは、弱い学習者のバイアスと弱い学習者がターゲット概念クラスを学習するのに要する時間の両方の観点から、Q-AdaBoostを高速化することを示した。
論文 参考訳(メタデータ) (2021-10-25T10:46:13Z) - A Boosting Approach to Reinforcement Learning [59.46285581748018]
複雑度が状態数に依存しない意思決定プロセスにおける強化学習のための効率的なアルゴリズムについて検討する。
このような弱い学習手法の精度を向上させることができる効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-08-22T16:00:45Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - The Success of AdaBoost and Its Application in Portfolio Management [0.6562256987706128]
AdaBoostが成功した分類器である理由を説明するための新しいアプローチを開発する。
バイナリ分類問題に対するトレーニングデータにおけるノイズポイント(ION)の影響の尺度を導入することにより、IONとテストエラーとの間に強い関係があることを証明します。
adaboostを中国市場における実証研究を通じてポートフォリオ管理に適用し,理論的な提案を裏付ける。
論文 参考訳(メタデータ) (2021-03-23T06:41:42Z) - Boosting for Online Convex Optimization [64.15578413206715]
多数の専門家とオンライン凸最適化の意思決定フレームワークを検討します。
弱学習アルゴリズムは、基本クラスの専門家に対するおよその後悔を保証するメカニズムとして定義します。
ベースクラスの凸船体に対するほぼ最適の後悔を保証する効率的なブースティングアルゴリズムを提供します。
論文 参考訳(メタデータ) (2021-02-18T12:30:49Z) - MP-Boost: Minipatch Boosting via Adaptive Feature and Observation
Sampling [0.0]
MP-BoostはAdaBoostを緩くベースとしたアルゴリズムで、インスタンスと機能の小さなサブセットを適応的に選択することで学習する。
様々な二項分類タスクにおいて,提案手法の解釈可能性,比較精度,計算時間について実験的に検証した。
論文 参考訳(メタデータ) (2020-11-14T04:26:13Z) - ADABOOK & MULTIBOOK: Adaptive Boosting with Chance Correction [3.7819322027528113]
弱い学習者は、より説得力のある確率補正措置の軽減に精度を最適化することが可能であり、この場合ブースターは早すぎる可能性がある。
そこで本稿は, 確率補正尺度の活用の必要性を示す理論的研究を補完するものであり, 確率補正尺度の活用が向上することを示す実証的な研究である。
論文 参考訳(メタデータ) (2020-10-11T01:17:32Z) - Bridging the Imitation Gap by Adaptive Insubordination [88.35564081175642]
教官が特権情報にアクセスして意思決定を行う場合、この情報は模倣学習中に疎外されることを示す。
本稿では,このギャップに対処するため,適応的不規則化(ADVISOR)を提案する。
ADVISORは、トレーニング中の模倣と報酬に基づく強化学習損失を動的に重み付け、模倣と探索をオンザフライで切り替えることを可能にする。
論文 参考訳(メタデータ) (2020-07-23T17:59:57Z) - Boosting algorithms in energy research: A systematic review [0.0]
ブースティングアルゴリズムは高い柔軟性と高い解釈性の両方が特徴である。
エネルギー分野の大幅な進歩は可能でありながら、これまでブーピングが過小評価されていることを示す。
論文 参考訳(メタデータ) (2020-04-01T18:03:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。