論文の概要: $\alpha$QBoost: An Iteratively Weighted Adiabatic Trained Classifier
- arxiv url: http://arxiv.org/abs/2210.07984v1
- Date: Fri, 14 Oct 2022 17:28:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 18:11:12.899884
- Title: $\alpha$QBoost: An Iteratively Weighted Adiabatic Trained Classifier
- Title(参考訳): alpha$qboost:反復的に重み付けされた断熱訓練された分類器
- Authors: Salvatore Certo, Andrew Vlasic, Daniel Beaulieu
- Abstract要約: 古典的手法に比較して大幅な改善が見られたアディベート的に訓練されたアンサンブルモデルの新たな実装が導出されている。
このアルゴリズムの実証的な結果は、より高い性能だけでなく、より少ない分類器による安定性も提供することを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A new implementation of an adiabatically-trained ensemble model is derived
that shows significant improvements over classical methods. In particular,
empirical results of this new algorithm show that it offers not just higher
performance, but also more stability with less classifiers, an attribute that
is critically important in areas like explainability and speed-of-inference. In
all, the empirical analysis displays that the algorithm can provide an increase
in performance on unseen data by strengthening stability of the statistical
model through further minimizing and balancing variance and bias, while
decreasing the time to convergence over its predecessors.
- Abstract(参考訳): 古典的手法に対する大幅な改善を示す、アダイアバタリー学習アンサンブルモデルの新たな実装が導出されている。
特に、この新しいアルゴリズムの実証的な結果は、より高いパフォーマンスを提供するだけでなく、より少ない分類器でより安定性を提供することを示している。
全体としては, 統計モデルの安定性を強化し, 分散とバイアスの最小化, バランスを保ちつつ, 前者の収束までの時間を短縮することで, 未知のデータに対する性能の向上が期待できることを示す。
関連論文リスト
- FeTrIL++: Feature Translation for Exemplar-Free Class-Incremental
Learning with Hill-Climbing [3.533544633664583]
EFCIL(Exemplar-free class-incremental Learning)は、主に破滅的な忘れが原因で大きな課題を提起する。
従来のEFCILのアプローチは、連続した微調整や安定性を通じて、プラスチックのモデルに傾くのが一般的である。
本稿では,様々なオーバーサンプリング手法と動的最適化手法の有効性を検討するための基礎的なFeTrILフレームワークを構築した。
論文 参考訳(メタデータ) (2024-03-12T08:34:05Z) - On the Stability-Plasticity Dilemma of Class-Incremental Learning [50.863180812727244]
クラス増分学習の第一の目的は、安定性と可塑性のバランスをとることである。
本稿では,近年のクラス増分学習アルゴリズムが,安定性と塑性のトレードオフにいかに効果的かを明らかにすることを目的とする。
論文 参考訳(メタデータ) (2023-04-04T09:34:14Z) - Causal Graph Discovery from Self and Mutually Exciting Time Series [10.410454851418548]
我々は,線形プログラムを解くことによって,非漸近的回復保証と定量的不確実性を開発する。
Sepsis Associated Derangements (SAD) による高度に解釈可能な因果DAGの回復におけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-01-26T16:15:27Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - Contrastively Disentangled Sequential Variational Autoencoder [20.75922928324671]
本稿では,C-DSVAE(Contrastively Disentangled Sequential Variational Autoencoder)という新しいシーケンス表現学習手法を提案する。
我々は,静的因子と動的因子の相互情報をペナルティ化しながら,入力と潜伏因子の相互情報を最大化する新しいエビデンスローバウンドを用いる。
実験の結果、C-DSVAEは従来の最先端の手法よりも優れていたことが判明した。
論文 参考訳(メタデータ) (2021-10-22T23:00:32Z) - Finite Sample Analysis of Minimax Offline Reinforcement Learning:
Completeness, Fast Rates and First-Order Efficiency [83.02999769628593]
強化学習におけるオフ・ポリティィ・アセスメント(OPE)の理論的特徴について述べる。
ミニマックス法により、重みと品質関数の高速収束を実現することができることを示す。
非タブラル環境における1次効率を持つ最初の有限サンプル結果を示す。
論文 参考訳(メタデータ) (2021-02-05T03:20:39Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。