論文の概要: Fractional Naive Bayes (FNB): non-convex optimization for a parsimonious weighted selective naive Bayes classifier
- arxiv url: http://arxiv.org/abs/2409.11100v1
- Date: Tue, 17 Sep 2024 11:54:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 16:55:21.991745
- Title: Fractional Naive Bayes (FNB): non-convex optimization for a parsimonious weighted selective naive Bayes classifier
- Title(参考訳): Fractional Naive Bayes (FNB): 擬似重み付き選択型ベイズ分類器の非凸最適化
- Authors: Carine Hue, Marc Boullé,
- Abstract要約: 非常に多数の入力変数を持つデータセットの分類を監督した。
本稿では,このモデルを用いたBalihoodの正規化を提案する。
提案したアルゴリズムは最適化に基づく重み付けNa"iveesスキームをもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study supervised classification for datasets with a very large number of input variables. The na\"ive Bayes classifier is attractive for its simplicity, scalability and effectiveness in many real data applications. When the strong na\"ive Bayes assumption of conditional independence of the input variables given the target variable is not valid, variable selection and model averaging are two common ways to improve the performance. In the case of the na\"ive Bayes classifier, the resulting weighting scheme on the models reduces to a weighting scheme on the variables. Here we focus on direct estimation of variable weights in such a weighted na\"ive Bayes classifier. We propose a sparse regularization of the model log-likelihood, which takes into account prior penalization costs related to each input variable. Compared to averaging based classifiers used up until now, our main goal is to obtain parsimonious robust models with less variables and equivalent performance. The direct estimation of the variable weights amounts to a non-convex optimization problem for which we propose and compare several two-stage algorithms. First, the criterion obtained by convex relaxation is minimized using several variants of standard gradient methods. Then, the initial non-convex optimization problem is solved using local optimization methods initialized with the result of the first stage. The various proposed algorithms result in optimization-based weighted na\"ive Bayes classifiers, that are evaluated on benchmark datasets and positioned w.r.t. to a reference averaging-based classifier.
- Abstract(参考訳): 非常に多数の入力変数を持つデータセットの教師付き分類について検討する。
na\\ive Bayes分類器は、多くの実データアプリケーションにおいて、その単純さ、スケーラビリティ、有効性において魅力的である。
目的変数が与えられた入力変数の条件独立性の強い na\"ive Bayes 仮定が有効でない場合、変数の選択とモデル平均化は、性能を改善するための2つの一般的な方法である。
na\\ive Bayes分類器の場合、モデルの重み付けスキームは変数の重み付けスキームに還元される。
ここでは、そのような重み付きNa\"ive Bayes分類器における可変重みの直接推定に焦点を当てる。
本稿では,各入力変数に対する事前の罰則化コストを考慮した,モデル対数様のスパース正規化を提案する。
これまでの平均化ベースの分類器と比較して、我々の主な目標は、より少ない変数と同等のパフォーマンスを持つ同種のロバストモデルを得ることです。
変数重みの直接推定は、いくつかの2段階アルゴリズムを提案し比較する非凸最適化問題に相当する。
第一に、凸緩和によって得られる基準は標準勾配法のいくつかの変種を用いて最小化される。
そして、初期非凸最適化問題を、第1段階の結果を初期化して局所最適化法を用いて解決する。
提案したアルゴリズムは、ベンチマークデータセットで評価され、参照平均化に基づく分類器に位置付けされる最適化ベースの重み付けされたna\"ive Bayes分類器をもたらす。
関連論文リスト
- Model-independent variable selection via the rule-based variable priority [1.2771542695459488]
モデルに依存しない新しいアプローチである可変優先度(VarPro)を導入する。
VarProは、人工データを生成したり、予測エラーを評価することなく、ルールを活用する。
VarProはノイズ変数に対して一貫したフィルタリング特性を持つことを示す。
論文 参考訳(メタデータ) (2024-09-13T17:32:05Z) - Variable selection for Na\"ive Bayes classification [2.8265531928694116]
Na"ive Bayes"は多変量解析において、抽出可能かつ効率的な分類法であることが証明されている。
3つの性質を特徴とする「ナイーブベイズ」のスパース版を提案する。
提案手法は, 特徴選択法と比較すると, スパースNa"ive Bayesは競争力のある結果が得られることがわかった。
論文 参考訳(メタデータ) (2024-01-31T18:01:36Z) - The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Optimal partition of feature using Bayesian classifier [0.0]
ネイブベイズでは、特定の特徴は独立特徴と呼ばれ、分類を予測する際に条件付き相関や依存を持たない。
本研究では,Naive Bayes法がもたらす課題を克服する手法として,Comonotone-Independence (CIBer)を提案する。
論文 参考訳(メタデータ) (2023-04-27T21:19:06Z) - Robust Outlier Rejection for 3D Registration with Variational Bayes [70.98659381852787]
我々は、ロバストアライメントのための新しい変分非局所ネットワークベース外乱除去フレームワークを開発した。
そこで本稿では, 投票に基づく不整合探索手法を提案し, 変換推定のための高品質な仮説的不整合をクラスタリングする。
論文 参考訳(メタデータ) (2023-04-04T03:48:56Z) - Boosting the Discriminant Power of Naive Bayes [17.43377106246301]
本稿では,スタックオートエンコーダを用いた特徴拡張手法を提案し,データ中のノイズを低減し,ベイズの識別力を高める。
実験結果から,提案手法は最先端のベイズ分類器よりも大きく,かつ一貫した性能を示した。
論文 参考訳(メタデータ) (2022-09-20T08:02:54Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - Is the Performance of My Deep Network Too Good to Be True? A Direct
Approach to Estimating the Bayes Error in Binary Classification [86.32752788233913]
分類問題において、ベイズ誤差は、最先端の性能を持つ分類器を評価するための基準として用いられる。
我々はベイズ誤差推定器を提案する。そこでは,クラスの不確かさを示すラベルの平均値のみを評価できる。
我々の柔軟なアプローチは、弱い教師付きデータであってもベイズ誤差を推定できる。
論文 参考訳(メタデータ) (2022-02-01T13:22:26Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Bayesian Few-Shot Classification with One-vs-Each P\'olya-Gamma
Augmented Gaussian Processes [7.6146285961466]
FSC(Few-shot Classification)は、人間のような機械学習への道のりの重要なステップである。
P'olya-Gamma augmentation と one-vs-each softmax approximation の新たな組み合わせを提案する。
標準的な数ショット分類ベンチマークと数ショットドメイン転送タスクの両方において、精度の向上と不確かさの定量化を実証した。
論文 参考訳(メタデータ) (2020-07-20T19:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。