論文の概要: The Success of AdaBoost and Its Application in Portfolio Management
- arxiv url: http://arxiv.org/abs/2103.12345v1
- Date: Tue, 23 Mar 2021 06:41:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 14:02:12.075171
- Title: The Success of AdaBoost and Its Application in Portfolio Management
- Title(参考訳): AdaBoostの成功とポートフォリオ管理への応用
- Authors: Yijian Chuan, Chaoyi Zhao, Zhenrui He, and Lan Wu
- Abstract要約: AdaBoostが成功した分類器である理由を説明するための新しいアプローチを開発する。
バイナリ分類問題に対するトレーニングデータにおけるノイズポイント(ION)の影響の尺度を導入することにより、IONとテストエラーとの間に強い関係があることを証明します。
adaboostを中国市場における実証研究を通じてポートフォリオ管理に適用し,理論的な提案を裏付ける。
- 参考スコア(独自算出の注目度): 0.6562256987706128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a novel approach to explain why AdaBoost is a successful
classifier. By introducing a measure of the influence of the noise points (ION)
in the training data for the binary classification problem, we prove that there
is a strong connection between the ION and the test error. We further identify
that the ION of AdaBoost decreases as the iteration number or the complexity of
the base learners increases. We confirm that it is impossible to obtain a
consistent classifier without deep trees as the base learners of AdaBoost in
some complicated situations. We apply AdaBoost in portfolio management via
empirical studies in the Chinese market, which corroborates our theoretical
propositions.
- Abstract(参考訳): AdaBoostが成功した分類器である理由を説明するための新しいアプローチを開発する。
2値分類問題に対するトレーニングデータにノイズポイント(ION)の影響の尺度を導入することにより、イオンとテストエラーとの間には強い関係があることを証明した。
さらに,基本学習者の反復数や複雑性が増加するにつれて,AdaBoostのIONが減少することを確認した。
我々は,AdaBoostの基礎学習者が複雑な状況下で,深い木を含まない一貫した分類器を入手することは不可能であることを確認した。
adaboostを中国市場における実証研究を通じてポートフォリオ管理に適用し,理論的な提案を裏付ける。
関連論文リスト
- Deep Boosting Learning: A Brand-new Cooperative Approach for Image-Text Matching [53.05954114863596]
画像テキストマッチングのための新しいDeep Boosting Learning (DBL)アルゴリズムを提案する。
アンカーブランチは、まずデータプロパティに関する洞察を提供するために訓練される。
ターゲットブランチは、一致したサンプルと未一致のサンプルとの相対距離をさらに拡大するために、より適応的なマージン制約を同時に課される。
論文 参考訳(メタデータ) (2024-04-28T08:44:28Z) - When Analytic Calculus Cracks AdaBoost Code [0.30693357740321775]
本研究では,Scikit-Lernで実装されたAdaBoostプロシージャを (2クラス) 解析する。
AdaBoostは名前のみのアルゴリズムであり、結果の弱い分類器の組み合わせは真理表を使って明示的に計算できる。
我々は,この式がリスクの最小点を与えていないことを観察し,最小点を求めるシステムを提供し,Freund と Schapire が記述したアルゴリズムを実装していないことを確かめる。
論文 参考訳(メタデータ) (2023-08-02T10:37:25Z) - Multiclass Boosting: Simple and Intuitive Weak Learning Criteria [72.71096438538254]
実現可能性の仮定を必要としない,単純かつ効率的なブースティングアルゴリズムを提案する。
本稿では,リスト学習者の向上に関する新たな結果と,マルチクラスPAC学習の特徴付けのための新しい証明を提案する。
論文 参考訳(メタデータ) (2023-07-02T19:26:58Z) - Local Boosting for Weakly-Supervised Learning [21.95003048165616]
ブースティングは、強力なアンサンブルモデルと組み合わせることで、ベースモデルのセットのパフォーマンスを向上させる技術である。
弱い教師付き学習では、ほとんどのデータが弱くてノイズの多い情報源によってラベル付けされているが、効果的な強化アプローチを設計するのは簡単ではない。
我々は、弱教師付きブースティングのための新しいフレームワークである$textitLocalBoost$を提案する。
論文 参考訳(メタデータ) (2023-06-05T13:24:03Z) - AdaBoost is not an Optimal Weak to Strong Learner [11.003568749905359]
AdaBoostのサンプルの複雑さや他の古典的なバリエーションは、強学習者の所望の精度において、少なくとも1つの対数係数によって最適以下であることが示される。
論文 参考訳(メタデータ) (2023-01-27T07:37:51Z) - The Impossibility of Parallelizing Boosting [56.24620522825757]
並列化促進の可能性について検討する。
私たちの主な貢献は強い負の結果であり、トレーニングに必要なコンピューティングリソースの総量に対して、大幅な並列化が急激な爆発を必要としていることを示唆している。
論文 参考訳(メタデータ) (2023-01-23T18:57:16Z) - ProBoost: a Boosting Method for Probabilistic Classifiers [55.970609838687864]
ProBoostは確率的分類器のための新しいブースティングアルゴリズムである。
各トレーニングサンプルの不確実性を使用して、最も困難で不確実なものを決定する。
これは、最も不確実性が高いと判明したサンプルに徐々に焦点をあてる配列を生成する。
論文 参考訳(メタデータ) (2022-09-04T12:49:20Z) - PRBoost: Prompt-Based Rule Discovery and Boosting for Interactive
Weakly-Supervised Learning [57.66155242473784]
弱教師付き学習(WSL)は,多くのNLPタスクにおいてラベル不足に対処する上で有望な結果を示した。
提案モデルであるPRBoostは、反復的なプロンプトベースのルール発見とモデル強化によってこの目標を達成する。
4つのタスクの実験では、PRBoostは最先端のWSLベースラインを7.1%まで上回っている。
論文 参考訳(メタデータ) (2022-03-18T04:23:20Z) - Quantum Boosting using Domain-Partitioning Hypotheses [0.9264464791978363]
ブースティングは、弱い学習者をPAC学習フレームワークの強力な学習者に変換するアンサンブル学習法である。
Q-RealBoostは、弱い学習者のバイアスと弱い学習者がターゲット概念クラスを学習するのに要する時間の両方の観点から、Q-AdaBoostを高速化することを示した。
論文 参考訳(メタデータ) (2021-10-25T10:46:13Z) - ADABOOK & MULTIBOOK: Adaptive Boosting with Chance Correction [3.7819322027528113]
弱い学習者は、より説得力のある確率補正措置の軽減に精度を最適化することが可能であり、この場合ブースターは早すぎる可能性がある。
そこで本稿は, 確率補正尺度の活用の必要性を示す理論的研究を補完するものであり, 確率補正尺度の活用が向上することを示す実証的な研究である。
論文 参考訳(メタデータ) (2020-10-11T01:17:32Z) - On the Dual Formulation of Boosting Algorithms [92.74617630106559]
AdaBoost,LogitBoost,Soft-marginBoostのラグランジュ問題は、すべて一般化されたヒンジ損失エントロピーの双対問題であることを示す。
これらのブースティングアルゴリズムの2つの問題を見て、より良いマージン分布を維持するという観点から、ブースティングの成功を理解することができることを示す。
論文 参考訳(メタデータ) (2009-01-23T02:14:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。