論文の概要: Bayes Classification using an approximation to the Joint Probability
Distribution of the Attributes
- arxiv url: http://arxiv.org/abs/2205.14779v1
- Date: Sun, 29 May 2022 22:24:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 10:21:52.968725
- Title: Bayes Classification using an approximation to the Joint Probability
Distribution of the Attributes
- Title(参考訳): 属性の結合確率分布に対する近似を用いたベイズ分類
- Authors: Patrick Hosein and Kevin Baboolal
- Abstract要約: 本研究では,テストサンプルの近傍の情報を用いて条件付き確率を推定する手法を提案する。
本稿では,カリフォルニア大学アーバイン校(UCI)の機械学習リポジトリから得られた幅広いデータセットに対する提案手法の性能について述べる。
- 参考スコア(独自算出の注目度): 1.0660480034605242
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Naive-Bayes classifier is widely used due to its simplicity, speed and
accuracy. However this approach fails when, for at least one attribute value in
a test sample, there are no corresponding training samples with that attribute
value. This is known as the zero frequency problem and is typically addressed
using Laplace Smoothing. However, Laplace Smoothing does not take into account
the statistical characteristics of the neighbourhood of the attribute values of
the test sample. Gaussian Naive Bayes addresses this but the resulting Gaussian
model is formed from global information. We instead propose an approach that
estimates conditional probabilities using information in the neighbourhood of
the test sample. In this case we no longer need to make the assumption of
independence of attribute values and hence consider the joint probability
distribution conditioned on the given class which means our approach (unlike
the Gaussian and Laplace approaches) takes into consideration dependencies
among the attribute values. We illustrate the performance of the proposed
approach on a wide range of datasets taken from the University of California at
Irvine (UCI) Machine Learning Repository. We also include results for the
$k$-NN classifier and demonstrate that the proposed approach is simple, robust
and outperforms standard approaches.
- Abstract(参考訳): Naive-Bayes分類器は、その単純さ、速度、精度から広く使われている。
しかし、テストサンプルの少なくとも1つの属性値に対して、その属性値を持つ対応するトレーニングサンプルが存在しない場合、このアプローチは失敗する。
これはゼロ周波数問題として知られ、通常はラプラス・スムーシングを用いて対処される。
しかし,ラプラス平滑化はテスト試料の属性値の近傍の統計的特性を考慮していない。
ガウスのナイーブ・ベイズはこれを扱っているが、ガウスのモデルはグローバルな情報から形成される。
代わりに,テスト試料の近傍の情報を用いて条件付き確率を推定する手法を提案する。
この場合、属性値の独立性の仮定をもはや必要とせず、従って与えられたクラス上で条件付けられた合同確率分布を考えると、(ガウス的およびラプラス的アプローチとは異なり)我々のアプローチは属性値間の依存関係を考慮に入れている。
本稿では,カリフォルニア大学アーバイン校(UCI)の機械学習リポジトリから得られた幅広いデータセットに対する提案手法の性能について述べる。
また、$k$-nn分類器の結果を含み、提案手法が単純で堅牢であり、標準アプローチよりも優れています。
関連論文リスト
- Doubly Robust Conditional Independence Testing with Generative Neural Networks [8.323172773256449]
本稿では、第3の確率ベクトル$Z$を与えられた2つのジェネリックランダムベクトル$X$と$Y$の条件独立性をテストする問題に対処する。
条件分布を明示的に推定しない新しい非パラメトリック試験法を提案する。
論文 参考訳(メタデータ) (2024-07-25T01:28:59Z) - Covariate Assisted Entity Ranking with Sparse Intrinsic Scores [3.2839905453386162]
我々は,新しいモデル同定条件を導入し,正規化された最大推定値の統計率について検討する。
また,本手法を潜在固有スコアを持たないモデルに対する適合性テストに適用する。
論文 参考訳(メタデータ) (2024-07-09T19:58:54Z) - On diffusion-based generative models and their error bounds: The log-concave case with full convergence estimates [5.13323375365494]
我々は,強い対数対数データの下での拡散に基づく生成モデルの収束挙動を理論的に保証する。
スコア推定に使用される関数のクラスは、スコア関数上のリプシッツネスの仮定を避けるために、リプシッツ連続関数からなる。
この手法はサンプリングアルゴリズムにおいて最もよく知られた収束率をもたらす。
論文 参考訳(メタデータ) (2023-11-22T18:40:45Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Robust Outlier Rejection for 3D Registration with Variational Bayes [70.98659381852787]
我々は、ロバストアライメントのための新しい変分非局所ネットワークベース外乱除去フレームワークを開発した。
そこで本稿では, 投票に基づく不整合探索手法を提案し, 変換推定のための高品質な仮説的不整合をクラスタリングする。
論文 参考訳(メタデータ) (2023-04-04T03:48:56Z) - A Statistical Model for Predicting Generalization in Few-Shot
Classification [6.158812834002346]
一般化誤差を予測するために,特徴分布のガウスモデルを導入する。
提案手法は, 相互検証戦略の離脱など, 代替案よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-12-13T10:21:15Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Probabilistic Anchor Assignment with IoU Prediction for Object Detection [9.703212439661097]
オブジェクト検出では、どのアンカーを正または負のサンプルとして割り当てるか、すなわちアンカー代入(アンカー代入)がモデルの性能に大きく影響を与えるコアプロシージャとして明らかにされている。
本稿では,モデルの学習状況に応じて,アンカーを正と負のサンプルに適応的に分離する新しいアンカー代入戦略を提案する。
論文 参考訳(メタデータ) (2020-07-16T04:26:57Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。