論文の概要: When Analytic Calculus Cracks AdaBoost Code
- arxiv url: http://arxiv.org/abs/2308.01070v2
- Date: Wed, 7 Feb 2024 17:13:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 20:10:58.624870
- Title: When Analytic Calculus Cracks AdaBoost Code
- Title(参考訳): adaboost コードの解析的解析法
- Authors: Jean-Marc Brossier, Olivier Lafitte, Lenny R\'ethor\'e
- Abstract要約: 本研究では,Scikit-Lernで実装されたAdaBoostプロシージャを (2クラス) 解析する。
AdaBoostは名前のみのアルゴリズムであり、結果の弱い分類器の組み合わせは真理表を使って明示的に計算できる。
我々は,この式がリスクの最小点を与えていないことを観察し,最小点を求めるシステムを提供し,Freund と Schapire が記述したアルゴリズムを実装していないことを確かめる。
- 参考スコア(独自算出の注目度): 0.30693357740321775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The principle of boosting in supervised learning involves combining multiple
weak classifiers to obtain a stronger classifier. AdaBoost has the reputation
to be a perfect example of this approach.
This study analyzes the (two classes) AdaBoost procedure implemented in
scikit-learn.
This paper shows that AdaBoost is an algorithm in name only, as the resulting
combination of weak classifiers can be explicitly calculated using a truth
table.
Indeed, using a logical analysis of the training set with weak classifiers
constructing a truth table, we recover, through an analytical formula, the
weights of the combination of these weak classifiers obtained by the procedure.
We observe that this formula does not give the point of minimum of the risk,
we provide a system to compute the exact point of minimum and we check that the
AdaBoost procedure in scikit-learn does not implement the algorithm described
by Freund and Schapire.
- Abstract(参考訳): 教師付き学習の原則は、複数の弱い分類器を結合してより強い分類器を得ることである。
AdaBoostはこのアプローチの完璧な例と評価されている。
本研究は, scikit-learn で実装された adaboost 手順を解析したものである。
本稿では,弱分類器の組み合わせは真理表を用いて明示的に計算できるため,adaboost は名称のみのアルゴリズムであることを示す。
実際、真理表を構成する弱分類器を持つトレーニングセットの論理解析を用いて、解析式を通して、手続きによって得られたこれらの弱分類器の組み合わせの重みを回復する。
この式がリスクの最小点を与えないことを観察し、最小点を計算するシステムを提供し、scikit-learnにおけるadaboost手順がfreundとschapireによって記述されたアルゴリズムを実装していないことをチェックする。
関連論文リスト
- Sample-Efficient Agnostic Boosting [19.15484761265653]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、既知のすべてのブースティングアルゴリズムよりも4次的に標本効率が高いという、不可知的なブースティング手法を超越している。
アルゴリズムの重要な特徴は、一様収束引数のブラックボックスアプリケーションで得られるものよりも厳密な一般化誤差を保証しつつ、複数ラウンドのブースティングのサンプルを再利用する能力を活用することである。
論文 参考訳(メタデータ) (2024-10-31T04:50:29Z) - The Many Faces of Optimal Weak-to-Strong Learning [10.985323882432086]
提案手法は, サンプルの複雑さを証明し得る, 驚くほど単純なブースティングアルゴリズムである。
我々のパイロット実験研究は、我々の新しいアルゴリズムが大規模なデータセットで以前のアルゴリズムより優れていることを示唆している。
論文 参考訳(メタデータ) (2024-08-30T09:38:51Z) - Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - Boosting, Voting Classifiers and Randomized Sample Compression Schemes [14.885182312708196]
複数の弱い学習者を活用して強力な学習者を生み出すことを目的としている。
一般化誤差がサンプルサイズに1つの対数依存を含む投票分類器を出力するランダム化ブースティングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-05T12:58:03Z) - Multiclass Boosting: Simple and Intuitive Weak Learning Criteria [72.71096438538254]
実現可能性の仮定を必要としない,単純かつ効率的なブースティングアルゴリズムを提案する。
本稿では,リスト学習者の向上に関する新たな結果と,マルチクラスPAC学習の特徴付けのための新しい証明を提案する。
論文 参考訳(メタデータ) (2023-07-02T19:26:58Z) - AdaBoost is not an Optimal Weak to Strong Learner [11.003568749905359]
AdaBoostのサンプルの複雑さや他の古典的なバリエーションは、強学習者の所望の精度において、少なくとも1つの対数係数によって最適以下であることが示される。
論文 参考訳(メタデータ) (2023-01-27T07:37:51Z) - ProBoost: a Boosting Method for Probabilistic Classifiers [55.970609838687864]
ProBoostは確率的分類器のための新しいブースティングアルゴリズムである。
各トレーニングサンプルの不確実性を使用して、最も困難で不確実なものを決定する。
これは、最も不確実性が高いと判明したサンプルに徐々に焦点をあてる配列を生成する。
論文 参考訳(メタデータ) (2022-09-04T12:49:20Z) - A Boosting Approach to Reinforcement Learning [59.46285581748018]
複雑度が状態数に依存しない意思決定プロセスにおける強化学習のための効率的なアルゴリズムについて検討する。
このような弱い学習手法の精度を向上させることができる効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-08-22T16:00:45Z) - Boosting for Online Convex Optimization [64.15578413206715]
多数の専門家とオンライン凸最適化の意思決定フレームワークを検討します。
弱学習アルゴリズムは、基本クラスの専門家に対するおよその後悔を保証するメカニズムとして定義します。
ベースクラスの凸船体に対するほぼ最適の後悔を保証する効率的なブースティングアルゴリズムを提供します。
論文 参考訳(メタデータ) (2021-02-18T12:30:49Z) - Fully-Corrective Gradient Boosting with Squared Hinge: Fast Learning
Rates and Early Stopping [29.485528641599018]
本稿では,二項分類の理論的一般化を保証する効率的なブースティング手法を提案する。
提案手法に対して,$cal O((m/log m)-1/4)$の高速学習率を導出する。
どちらの学習率も、分類のためのブースティング型手法の既存の一般化結果の中で最良である。
論文 参考訳(メタデータ) (2020-04-01T00:39:24Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。