論文の概要: Optimal partition of feature using Bayesian classifier
- arxiv url: http://arxiv.org/abs/2304.14537v1
- Date: Thu, 27 Apr 2023 21:19:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 15:46:20.922892
- Title: Optimal partition of feature using Bayesian classifier
- Title(参考訳): ベイズ分類器を用いた特徴の最適分割
- Authors: Sanjay Vishwakarma and Srinjoy Ganguly
- Abstract要約: ネイブベイズでは、特定の特徴は独立特徴と呼ばれ、分類を予測する際に条件付き相関や依存を持たない。
本研究では,Naive Bayes法がもたらす課題を克服する手法として,Comonotone-Independence (CIBer)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Naive Bayesian classifier is a popular classification method employing
the Bayesian paradigm. The concept of having conditional dependence among input
variables sounds good in theory but can lead to a majority vote style
behaviour. Achieving conditional independence is often difficult, and they
introduce decision biases in the estimates. In Naive Bayes, certain features
are called independent features as they have no conditional correlation or
dependency when predicting a classification. In this paper, we focus on the
optimal partition of features by proposing a novel technique called the
Comonotone-Independence Classifier (CIBer) which is able to overcome the
challenges posed by the Naive Bayes method. For different datasets, we clearly
demonstrate the efficacy of our technique, where we achieve lower error rates
and higher or equivalent accuracy compared to models such as Random Forests and
XGBoost.
- Abstract(参考訳): ネイブ・ベイズ分類器はベイズパラダイムを用いた一般的な分類法である。
入力変数間の条件依存を持つという概念は理論上はよいが、多数決スタイルの振る舞いにつながる可能性がある。
条件付き独立を達成することはしばしば困難であり、見積もりに決定バイアスを導入する。
ネイブベイズでは、特定の特徴は独立特徴と呼ばれ、分類を予測する際に条件付き相関や依存を持たない。
本稿では,ネイブベイズ法によって生じる課題を克服できるコモノトン非依存分類器 (ciber) と呼ばれる新しい手法を提案することで,特徴の最適分割に着目する。
異なるデータセットについては、ランダムフォレストやxgboostなどのモデルと比較してエラー率を低くし、高い、または同等の精度を達成する手法の有効性を明確に示します。
関連論文リスト
- Fractional Naive Bayes (FNB): non-convex optimization for a parsimonious weighted selective naive Bayes classifier [0.0]
非常に多数の入力変数を持つデータセットの分類を監督した。
本稿では,このモデルを用いたBalihoodの正規化を提案する。
提案したアルゴリズムは最適化に基づく重み付けNa"iveesスキームをもたらす。
論文 参考訳(メタデータ) (2024-09-17T11:54:14Z) - Variable selection for Na\"ive Bayes classification [2.8265531928694116]
Na"ive Bayes"は多変量解析において、抽出可能かつ効率的な分類法であることが証明されている。
3つの性質を特徴とする「ナイーブベイズ」のスパース版を提案する。
提案手法は, 特徴選択法と比較すると, スパースNa"ive Bayesは競争力のある結果が得られることがわかった。
論文 参考訳(メタデータ) (2024-01-31T18:01:36Z) - Leveraging Ensemble Diversity for Robust Self-Training in the Presence of Sample Selection Bias [5.698050337128548]
半教師付き学習において、自己学習はよく知られたアプローチである。モデルが自信を持ってラベル付きデータに擬似ラベルを反復的に割り当て、ラベル付き例として扱う。
ニューラルネットワークの場合、ソフトマックス予測確率はしばしば信頼度尺度として使用されるが、誤った予測であっても過度に信頼されていることが知られている。
本稿では,線形分類器のアンサンブルの予測多様性に基づいて,$mathcalT$-similarityと呼ばれる新しい信頼度尺度を提案する。
論文 参考訳(メタデータ) (2023-10-23T11:30:06Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Robust Outlier Rejection for 3D Registration with Variational Bayes [70.98659381852787]
我々は、ロバストアライメントのための新しい変分非局所ネットワークベース外乱除去フレームワークを開発した。
そこで本稿では, 投票に基づく不整合探索手法を提案し, 変換推定のための高品質な仮説的不整合をクラスタリングする。
論文 参考訳(メタデータ) (2023-04-04T03:48:56Z) - Multi-Label Quantification [78.83284164605473]
定量化とは、教師なしデータサンプルにおいて、興味あるクラスの相対周波数の予測子を生成する教師付き学習課題である。
本研究では,その相対頻度をより正確に予測するために,興味あるクラス間の依存関係を活用しようとするクラス有病率値の推定手法を提案する。
論文 参考訳(メタデータ) (2022-11-15T11:29:59Z) - Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels [87.48541631675889]
本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-07-29T04:54:57Z) - Is the Performance of My Deep Network Too Good to Be True? A Direct
Approach to Estimating the Bayes Error in Binary Classification [86.32752788233913]
分類問題において、ベイズ誤差は、最先端の性能を持つ分類器を評価するための基準として用いられる。
我々はベイズ誤差推定器を提案する。そこでは,クラスの不確かさを示すラベルの平均値のみを評価できる。
我々の柔軟なアプローチは、弱い教師付きデータであってもベイズ誤差を推定できる。
論文 参考訳(メタデータ) (2022-02-01T13:22:26Z) - Improving usual Naive Bayes classifier performances with Neural Naive
Bayes based models [6.939768185086753]
本稿では,ニューラルネットワーク機能を持つニューラルネイブベイズから誘導される分類器のパラメータをモデル化したニューラルネイブベイズについて紹介する。
独立状態を緩和する新しいニューラルプール型マルコフチェインモデルも導入する。
論文 参考訳(メタデータ) (2021-11-14T10:42:26Z) - A new class of generative classifiers based on staged tree models [2.66269503676104]
分類のための生成モデルは、クラス変数と特徴の合同確率分布を使用して決定規則を構成する。
ここでは,ステージ付き木分類器と呼ばれる,コンテキスト固有の独立性を考慮した新しい生成型分類器を導入する。
タイタニックの乗客の運命を予測するための応用分析は、生成分類器の新しいクラスが与えることができる洞察を強調します。
論文 参考訳(メタデータ) (2020-12-26T19:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。