論文の概要: Variational Classification
- arxiv url: http://arxiv.org/abs/2305.10406v4
- Date: Fri, 8 Dec 2023 16:12:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 19:01:55.918782
- Title: Variational Classification
- Title(参考訳): 変分分類
- Authors: Shehzaad Dhuliawala, Mrinmaya Sachan, Carl Allen
- Abstract要約: 我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
次に、既成のソフトマックス分類器における暗黙の仮定の代わりに、特定の潜伏分布を促進するための変分目的を考案する。
- 参考スコア(独自算出の注目度): 51.2541371924591
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a latent variable model for classification that provides a novel
probabilistic interpretation of neural network softmax classifiers. We derive a
variational objective to train the model, analogous to the evidence lower bound
(ELBO) used to train variational auto-encoders, that generalises the
cross-entropy loss used to train classification models. Treating inputs to the
softmax layer as samples of a latent variable, our abstracted perspective
reveals a potential inconsistency between their anticipated distribution,
required for accurate label predictions, and the empirical distribution they
follow in practice. We then devise a variational objective to mitigate such
inconsistency and encourage a specified latent distribution, instead of the
implicit assumption in off-the-shelf softmax classifiers. Overall, we provide
new theoretical insight into the inner workings of widely-used softmax
classification; and empirical evaluation on image and text classification
datasets demonstrates that our proposed remedy, variational classification,
maintains classification accuracy while the reshaped latent space improves
other desirable classifier properties, such as calibration, adversarial
robustness, robustness to distribution shift and sample efficiency useful in
low data settings.
- Abstract(参考訳): 本稿では,ニューラルネットワークソフトマックス分類器の新しい確率論的解釈を提供する潜在変数モデルを提案する。
分類モデルの訓練に使用されるクロスエントロピー損失を一般化する変分オートエンコーダの訓練に使用されるエビデンス下限(elbo)と同様、モデルの訓練のための変分目標を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで、正確なラベル予測に必要な予測分布と、実際に従う経験分布との間には、潜在的な矛盾が明らかになる。
そこで我々は,既成のソフトマックス分類器における暗黙の仮定の代わりに,そのような矛盾を緩和し,特定の潜伏分布を奨励する変動目的を考案する。
広範に使用されているソフトマックス分類の内在性に関する新たな理論的知見を提供するとともに,画像およびテキスト分類データセットの実証的評価により,提案した治療法,変分分類は分類精度を保ちながら,変形した潜在空間はキャリブレーション,対角ロバストネス,分布変化に対する堅牢性,サンプル効率などの他の望ましい分類特性を改善していることが示された。
関連論文リスト
- SoftCVI: Contrastive variational inference with self-generated soft labels [2.5398014196797614]
変分推論とマルコフ連鎖モンテカルロ法がこのタスクの主要なツールである。
ソフトコントラスト変動推論(SoftCVI)を導入し、コントラスト推定フレームワークを用いて変動対象のファミリーを導出する。
我々は、SoftCVIを用いて、訓練や大量発見に安定な目標を定式化することができ、他の変分アプローチよりも頻繁に優れた推論が可能であることを発見した。
論文 参考訳(メタデータ) (2024-07-22T14:54:12Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Exploring Beyond Logits: Hierarchical Dynamic Labeling Based on Embeddings for Semi-Supervised Classification [49.09505771145326]
モデル予測に依存しない階層型動的ラベル付け(HDL)アルゴリズムを提案し,画像埋め込みを用いてサンプルラベルを生成する。
本手法は,半教師付き学習における擬似ラベル生成のパラダイムを変える可能性がある。
論文 参考訳(メタデータ) (2024-04-26T06:00:27Z) - Variational autoencoder with weighted samples for high-dimensional
non-parametric adaptive importance sampling [0.0]
既存のフレームワークを、新しい目的関数を導入することで、重み付けされたサンプルの場合に拡張する。
モデルに柔軟性を加え、マルチモーダル分布を学習できるようにするため、学習可能な事前分布を考える。
提案手法は,既存の適応的重要度サンプリングアルゴリズムを用いて,目標分布から点を抽出し,高次元で稀な事象確率を推定する。
論文 参考訳(メタデータ) (2023-10-13T15:40:55Z) - Implicit Variational Inference for High-Dimensional Posteriors [7.924706533725115]
変分推論において、ベイズモデルの利点は、真の後続分布を正確に捉えることに依存する。
複雑な多重モーダルおよび相関後部を近似するのに適した暗黙分布を特定するニューラルサンプリング手法を提案する。
提案手法では,ニューラルネットワークを局所的に線形化することにより,暗黙分布を用いた近似推論の新たなバウンダリを導入する。
論文 参考訳(メタデータ) (2023-10-10T14:06:56Z) - ReCAB-VAE: Gumbel-Softmax Variational Inference Based on Analytic
Divergence [17.665255113864795]
緩和されたカテゴリー分布のクルバック・リーブラー発散(KLD)の上界に対応する新しい発散型計量について述べる。
また、連続表現と緩和表現の両方をうまくモデル化できる緩和された分類的有界変分オートエンコーダ(ReCAB-VAE)を提案する。
論文 参考訳(メタデータ) (2022-05-09T08:11:46Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。