論文の概要: Score-Based Generative Classifiers
- arxiv url: http://arxiv.org/abs/2110.00473v1
- Date: Fri, 1 Oct 2021 15:05:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 18:25:48.145658
- Title: Score-Based Generative Classifiers
- Title(参考訳): スコアベース生成分類器
- Authors: Roland S. Zimmermann, Lukas Schott, Yang Song, Benjamin A. Dunn, David
A. Klindt
- Abstract要約: 生成モデルは、MNISTのような単純なデータセット上で逆向きに堅牢な分類器として使われてきた。
これまでの結果は、データの可能性と分類精度のトレードオフを示唆している。
スコアに基づく生成モデルは,標準的な識別モデルと比較して,分類精度のギャップを埋めていることを示す。
- 参考スコア(独自算出の注目度): 9.063815952852783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The tremendous success of generative models in recent years raises the
question whether they can also be used to perform classification. Generative
models have been used as adversarially robust classifiers on simple datasets
such as MNIST, but this robustness has not been observed on more complex
datasets like CIFAR-10. Additionally, on natural image datasets, previous
results have suggested a trade-off between the likelihood of the data and
classification accuracy. In this work, we investigate score-based generative
models as classifiers for natural images. We show that these models not only
obtain competitive likelihood values but simultaneously achieve
state-of-the-art classification accuracy for generative classifiers on
CIFAR-10. Nevertheless, we find that these models are only slightly, if at all,
more robust than discriminative baseline models on out-of-distribution tasks
based on common image corruptions. Similarly and contrary to prior results, we
find that score-based are prone to worst-case distribution shifts in the form
of adversarial perturbations. Our work highlights that score-based generative
models are closing the gap in classification accuracy compared to standard
discriminative models. While they do not yet deliver on the promise of
adversarial and out-of-domain robustness, they provide a different approach to
classification that warrants further research.
- Abstract(参考訳): 近年の生成モデルの成功は、分類を行うのにも使えるかどうかという疑問を提起している。
生成モデルはmnistのような単純なデータセット上では敵対的にロバストな分類器として使われてきたが、cifar-10のようなより複雑なデータセットではこのロバスト性は観測されていない。
さらに、自然画像データセットでは、過去の結果から、データの可能性と分類精度のトレードオフが示唆されている。
本研究では,自然画像の分類器としてスコアベース生成モデルを検討する。
我々は,これらのモデルが競合確率値を得るだけでなく,CIFAR-10における生成型分類器の最先端の分類精度も同時に達成できることを示した。
それにもかかわらず、これらのモデルは、一般的なイメージの腐敗に基づく分散タスクにおける差別的ベースラインモデルよりも、ほんの少しだけ強固なだけであることがわかった。
同様に, 先行結果とは対照的に, スコアベースは逆摂動の形で, 最悪の場合分布シフトを起こしやすいことがわかった。
我々の研究は、スコアベース生成モデルが標準的な識別モデルと比較して分類精度のギャップを埋めていることを強調している。
彼らはまだ敵意とドメイン外ロバスト性の約束を達成していないが、さらなる研究を保証している分類に対する別のアプローチを提供している。
関連論文リスト
- DECIDER: Leveraging Foundation Model Priors for Improved Model Failure Detection and Explanation [18.77296551727931]
本稿では,大規模言語モデル (LLM) と視覚言語モデル (VLM) の先行情報を利用した画像モデルの故障検出手法であるDECIDERを提案する。
DECIDERは一貫して最先端の故障検出性能を達成し、マシューズ相関係数全体のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2024-08-01T07:08:11Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - GREAT Score: Global Robustness Evaluation of Adversarial Perturbation using Generative Models [60.48306899271866]
GREATスコア(GREAT Score)と呼ばれる新しいフレームワークを提案する。
我々は,ロバストベンチにおける攻撃ベースモデルと比較し,高い相関性を示し,GREATスコアのコストを大幅に削減した。
GREAT Scoreは、プライバシーに敏感なブラックボックスモデルのリモート監査に使用することができる。
論文 参考訳(メタデータ) (2023-04-19T14:58:27Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - Generative Robust Classification [3.4773470589069477]
相対的に頑健な差別的分類(ソフトマックス)の訓練は、頑健な分類に対する主要なアプローチである。
本稿では, 対人訓練(AT)に基づく生成モデルについて検討する。
アプローチの堅牢性を向上するために、高度なデータ拡張を適用するのは簡単です。
論文 参考訳(メタデータ) (2022-12-14T15:33:11Z) - on the effectiveness of generative adversarial network on anomaly
detection [1.6244541005112747]
GANは、実際のトレーニング分布を特定するために、これらのモデルのリッチなコンテキスト情報に依存している。
本稿では,自動エンコーダとGANを組み合わせた新しい教師なしモデルを提案する。
識別器の内部表現と生成器の視覚表現の線形結合と、オートエンコーダの符号化表現とを組み合わせて、提案した異常スコアを定義する。
論文 参考訳(メタデータ) (2021-12-31T16:35:47Z) - Estimating the Robustness of Classification Models by the Structure of
the Learned Feature-Space [10.418647759223964]
固定テストセットは、可能なデータバリエーションのごく一部しかキャプチャできないため、制限され、新しい過度なソリューションを生成する傾向にある、と私たちは主張する。
これらの欠点を克服するために、学習した特徴空間の構造から直接モデルのロバスト性を推定することを提案する。
論文 参考訳(メタデータ) (2021-06-23T10:52:29Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Model Rectification via Unknown Unknowns Extraction from Deployment
Samples [8.0497115494227]
本稿では, 訓練後のモデル修正を, 教師付き方式で実施することを目的とした, 汎用的なアルゴリズムフレームワークを提案する。
RTSCVは未知の未知(u.u.s)を抽出する
RTSCVは最先端のアプローチよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-02-08T11:46:19Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。