論文の概要: Deriving discriminative classifiers from generative models
- arxiv url: http://arxiv.org/abs/2201.00844v1
- Date: Mon, 3 Jan 2022 19:18:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 13:40:19.527316
- Title: Deriving discriminative classifiers from generative models
- Title(参考訳): 生成モデルからの判別分類器の導出
- Authors: Elie Azeraf, Emmanuel Monfrini, Wojciech Pieczynski
- Abstract要約: 生成モデルから誘導される生成的分類器は、同じモデルから判別的に計算できることを示す。
自然言語処理(NLP)フレームワークにおいて,分類器を識別する新たな手法が注目されている。
- 参考スコア(独自算出の注目度): 6.939768185086753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We deal with Bayesian generative and discriminative classifiers. Given a
model distribution $p(x, y)$, with the observation $y$ and the target $x$, one
computes generative classifiers by firstly considering $p(x, y)$ and then using
the Bayes rule to calculate $p(x | y)$. A discriminative model is directly
given by $p(x | y)$, which is used to compute discriminative classifiers.
However, recent works showed that the Bayesian Maximum Posterior classifier
defined from the Naive Bayes (NB) or Hidden Markov Chain (HMC), both generative
models, can also match the discriminative classifier definition. Thus, there
are situations in which dividing classifiers into "generative" and
"discriminative" is somewhat misleading. Indeed, such a distinction is rather
related to the way of computing classifiers, not to the classifiers themselves.
We present a general theoretical result specifying how a generative classifier
induced from a generative model can also be computed in a discriminative way
from the same model. Examples of NB and HMC are found again as particular
cases, and we apply the general result to two original extensions of NB, and
two extensions of HMC, one of which being original. Finally, we shortly
illustrate the interest of the new discriminative way of computing classifiers
in the Natural Language Processing (NLP) framework.
- Abstract(参考訳): 我々はベイズ族と差別的分類器を扱う。
モデル分布 $p(x, y)$ を観測値 $y$ と目標値 $x$ で与えると、最初に $p(x, y)$ を考え、次にベイズ則を使って $p(x | y)$ を計算する。
判別モデルは、判別分類子を計算するために使用される$p(x | y)$によって直接与えられる。
しかし、近年の研究では、ネイブベイズ (NB) またはハイデンマルコフ・チェイン (HMC) から定義されるベイジアン最大後分類器が、どちらの生成モデルも識別的分類器の定義と一致することを示した。
したがって、分類器を「生成的」と「差別的」に分ける状況はやや誤解を招く。
実際、このような区別は分類器自体ではなく、分類器の計算方法に関係している。
本稿では、生成モデルから誘導される生成的分類器が、同じモデルから判別的に計算できることを示す一般的な理論的結果を示す。
NB と HMC の例は、NB の2つの元の拡張と HMC の2つの拡張に適用し、そのうちの1つは元の拡張である。
最後に、自然言語処理(NLP)フレームワークにおいて、分類器を識別する新たな方法に興味を示す。
関連論文リスト
- Generative Multi-modal Models are Good Class-Incremental Learners [51.5648732517187]
クラス増分学習のための新しい生成型マルチモーダルモデル(GMM)フレームワークを提案する。
提案手法は適応生成モデルを用いて画像のラベルを直接生成する。
Few-shot CIL設定では、現在の最先端のすべてのメソッドに対して少なくとも14%精度が向上し、忘れてはならない。
論文 参考訳(メタデータ) (2024-03-27T09:21:07Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - GMMSeg: Gaussian Mixture based Generative Semantic Segmentation Models [74.0430727476634]
結合分布 p(ピクセル特徴,クラス) の高密度な生成型分類器に依存する分割モデルの新たなファミリーを提案する。
さまざまなセグメンテーションアーキテクチャとバックボーンにより、GMMSegはクローズドセットデータセットにおいて差別的よりも優れています。
GMMSegは、オープンワールドデータセットでもうまく機能する。
論文 参考訳(メタデータ) (2022-10-05T05:20:49Z) - Distance Based Image Classification: A solution to generative
classification's conundrum? [70.43638559782597]
差別的境界は、何によって意味論を定義するため、直観に反するものであると論じる。
本稿では,シェル理論の階層的生成過程によって意味的因子が許容される新しい生成モデルを提案する。
本モデルを用いて,意味的手がかりを保ちながら雑音の影響を抑える分類手法を開発した。
論文 参考訳(メタデータ) (2022-10-04T03:35:13Z) - A new class of generative classifiers based on staged tree models [2.66269503676104]
分類のための生成モデルは、クラス変数と特徴の合同確率分布を使用して決定規則を構成する。
ここでは,ステージ付き木分類器と呼ばれる,コンテキスト固有の独立性を考慮した新しい生成型分類器を導入する。
タイタニックの乗客の運命を予測するための応用分析は、生成分類器の新しいクラスが与えることができる洞察を強調します。
論文 参考訳(メタデータ) (2020-12-26T19:30:35Z) - Using the Naive Bayes as a discriminative classifier [6.939768185086753]
分類タスクでは、確率モデルは、生成的または識別的の2つの不一致なクラスに分類することができる。
最近のEntropic Forward-Backwardアルゴリズムは、生成モデルと見なされる隠れマルコフモデルが、識別的定義と一致することも示している。
Naive Bayes分類器は、識別分類器の定義にも一致するので、生成的または識別的な方法で使用できる。
論文 参考訳(メタデータ) (2020-12-25T13:32:23Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Discriminatively-Tuned Generative Classifiers for Robust Natural
Language Inference [59.62779187457773]
自然言語推論のための生成型分類器(NLI)を提案する。
差別モデルやBERTのような大規模事前学習言語表現モデルを含む5つのベースラインと比較する。
実験の結果、GenNLIはいくつかの挑戦的なNLI実験環境において差別的ベースラインと事前訓練ベースラインの両方に優れていた。
論文 参考訳(メタデータ) (2020-10-08T04:44:00Z) - Large scale analysis of generalization error in learning using margin
based classification methods [2.436681150766912]
サンプルサイズ$n$と次元$p$の両方の極限で、大マルジン分類器の族を一般化誤差とする式を導出する。
2層ニューラルネットワークでは、最近開発された2重降下現象をいくつかの分類モデルで再現する。
論文 参考訳(メタデータ) (2020-07-16T20:31:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。