論文の概要: Improving usual Naive Bayes classifier performances with Neural Naive
Bayes based models
- arxiv url: http://arxiv.org/abs/2111.07307v1
- Date: Sun, 14 Nov 2021 10:42:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 14:04:48.046854
- Title: Improving usual Naive Bayes classifier performances with Neural Naive
Bayes based models
- Title(参考訳): ニューラルナイーブベイズモデルを用いた通常のナイーブベイズ分類器の性能改善
- Authors: Elie Azeraf, Emmanuel Monfrini, Wojciech Pieczynski
- Abstract要約: 本稿では,ニューラルネットワーク機能を持つニューラルネイブベイズから誘導される分類器のパラメータをモデル化したニューラルネイブベイズについて紹介する。
独立状態を緩和する新しいニューラルプール型マルコフチェインモデルも導入する。
- 参考スコア(独自算出の注目度): 6.939768185086753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Naive Bayes is a popular probabilistic model appreciated for its simplicity
and interpretability. However, the usual form of the related classifier suffers
from two major problems. First, as caring about the observations' law, it
cannot consider complex features. Moreover, it considers the conditional
independence of the observations given the hidden variable. This paper
introduces the original Neural Naive Bayes, modeling the parameters of the
classifier induced from the Naive Bayes with neural network functions. This
allows to correct the first problem. We also introduce new Neural Pooled Markov
Chain models, alleviating the independence condition. We empirically study the
benefits of these models for Sentiment Analysis, dividing the error rate of the
usual classifier by 4.5 on the IMDB dataset with the FastText embedding.
- Abstract(参考訳): ネイブ・ベイズ(Naive Bayes)は、その単純さと解釈可能性で評価される確率モデルである。
しかし、関連する分類器の通常の形式は2つの大きな問題に直面している。
第一に、観測の法則に注意を払って、複雑な特徴を考慮できない。
さらに、隠れ変数が与えられた観測の条件的独立性も考慮する。
本稿では,ニューラルネットワーク機能を持つニューラルネイブベイズから誘導される分類器のパラメータをモデル化したニューラルネイブベイズについて紹介する。
これにより、最初の問題を修正できる。
また,ニューラルプールマルコフ連鎖モデルを導入し,独立条件を緩和する。
我々はこれらのモデルの利点を実証的に研究し、FastText埋め込みを用いてIMDBデータセット上で通常の分類器の誤り率を4.5に分割する。
関連論文リスト
- Simple and Interpretable Probabilistic Classifiers for Knowledge Graphs [0.0]
本稿では,単純な信念ネットワークの学習に基づく帰納的アプローチについて述べる。
このようなモデルを(確率的な)公理(あるいは規則)に変換する方法を示す。
論文 参考訳(メタデータ) (2024-07-09T17:05:52Z) - A Notion of Uniqueness for the Adversarial Bayes Classifier [0.0]
本稿では,二項分類の設定において,逆ベイズ分類器に対して一意性という新たな概念を提案する。
摂動半径が増加するにつれて、逆ベイズ分類器の正則性は向上することを示す。
論文 参考訳(メタデータ) (2024-04-25T18:10:27Z) - Evidence Networks: simple losses for fast, amortized, neural Bayesian
model comparison [0.0]
Evidence Networksは、最先端のメソッドがフェールした場合にベイズモデルの比較を可能にする。
リークパリティオード電力変換を導入し、新しいl-POP-Exponential'損失関数を導出する。
Evidence Networks はパラメータ空間の次元性に明示的に依存しており、後続確率密度関数の複雑さと軽度にスケール可能であることを示す。
論文 参考訳(メタデータ) (2023-05-18T18:14:53Z) - Optimal partition of feature using Bayesian classifier [0.0]
ネイブベイズでは、特定の特徴は独立特徴と呼ばれ、分類を予測する際に条件付き相関や依存を持たない。
本研究では,Naive Bayes法がもたらす課題を克服する手法として,Comonotone-Independence (CIBer)を提案する。
論文 参考訳(メタデータ) (2023-04-27T21:19:06Z) - Neural Dependencies Emerging from Learning Massive Categories [94.77992221690742]
この研究は、大規模画像分類のために学んだニューラルネットワークに関する2つの驚くべき発見を示す。
1) 十分に訓練されたモデルが与えられた場合、いくつかのカテゴリで予測されたロジットは、他のいくつかのカテゴリの予測を線形に組み合わせることで直接得ることができる。
2) 神経依存は1つのモデルに留まらず、2つの独立した学習モデルの間にさえ存在する。
論文 参考訳(メタデータ) (2022-11-21T09:42:15Z) - Is the Performance of My Deep Network Too Good to Be True? A Direct
Approach to Estimating the Bayes Error in Binary Classification [86.32752788233913]
分類問題において、ベイズ誤差は、最先端の性能を持つ分類器を評価するための基準として用いられる。
我々はベイズ誤差推定器を提案する。そこでは,クラスの不確かさを示すラベルの平均値のみを評価できる。
我々の柔軟なアプローチは、弱い教師付きデータであってもベイズ誤差を推定できる。
論文 参考訳(メタデータ) (2022-02-01T13:22:26Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - DoLFIn: Distributions over Latent Features for Interpretability [8.807587076209568]
ニューラルネットワークモデルにおける解釈可能性を実現するための新しい戦略を提案する。
我々のアプローチは、確率を中心量として使う成功に基づいている。
DoLFInは解釈可能なソリューションを提供するだけでなく、古典的なCNNやBiLSTMテキスト分類よりも若干優れています。
論文 参考訳(メタデータ) (2020-11-10T18:32:53Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。