論文の概要: Learning The Likelihood Test With One-Class Classifiers
- arxiv url: http://arxiv.org/abs/2210.12494v3
- Date: Tue, 2 Apr 2024 06:37:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 14:21:15.314302
- Title: Learning The Likelihood Test With One-Class Classifiers
- Title(参考訳): 1クラス分類器による類似テストの学習
- Authors: Francesco Ardizzon, Stefano Tomasin,
- Abstract要約: 2つの代替確率密度関数 (pdfs) P0 と P1 からランダムに生成される観測を考えると、pdf がどの観測を発生させたかを決定する問題を考える。
P0 pdfが知られているとき、我々は可能性テスト(LT)を使い、その分布を持つサンプルのセットが利用可能であれば、一級分類(OCC)を利用する。
マルチ層パーセプトロンニューラルネットワーク(NN)と1クラス最小二乗サポートマシン(OSVM)モデルでこれが起こることを示す。
- 参考スコア(独自算出の注目度): 6.853388306874705
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given an observation randomly generated from two alternative probability density functions (pdfs) P0 and P1, we consider the problem of deciding which pdf generated the observation. To design the decision technique we assume that we either know P0 or have a set of samples generated from it; the P1 pdf is instead completely unknown. Such a scenario arises, for example, in security contexts, where the attacker's behavior is completely unknown to the legitimate users. When the P0 pdf is known, we resort to the likelihood test (LT), while when a set of samples with its distribution is available, we resort to one-class classification (OCC). We focus on the problem of learning OCC models that operate as the LT. We show this occurs for the multilayer perceptron neural network (NN) and the one-class least-squares support vector machine (OCLSSVM) models properly trained as two-class classifiers using an artificial dataset for the negative class, obtained by generating samples uniformly distributed over the domain of the positive class dataset. The artificial dataset is used only for training, while the OCC is used on negative-class samples generated from a different pdf. We also derive a modified stochastic gradient descent (SGD) algorithm that provides OCC operating as LT without the need for the artificial dataset. Furthermore, we show that the OCLSSVM with suitable kernels operates as the LT at convergence. Lastly, we prove that the widely used autoencoder (AE) classifier generally does not provide the LT.
- Abstract(参考訳): 2つの代替確率密度関数 (pdfs) P0 と P1 からランダムに生成される観測を考えると、pdf がどの観測を発生させたかを決定する問題を考える。
決定技法を設計するために、我々はP0を知っているか、あるいはそこから生成されたサンプルの集合を持っていると仮定する。
このようなシナリオは、例えばセキュリティのコンテキストにおいて、攻撃者の動作が正統なユーザに対して完全に未知である場合に発生する。
P0 pdf が知られているとき、我々は可能性テスト (LT) を用いるが、その分布を持つサンプルの集合が利用可能であれば、一級分類 (OCC) を利用する。
我々は、LTとして動作するOCCモデルを学習する問題に焦点をあて、正のクラスデータセットの領域に均一に分散したサンプルを生成し、正のクラスデータセットに対して人工データセットを用いて2クラス分類器として適切に訓練された多層パーセプトロンニューラルネットワーク(NN)と1クラス最小二乗支援ベクトルマシン(OCLSSVM)モデルでこれが起こることを示す。
人工データセットはトレーニングにのみ使用され、OCCは異なるpdfから生成された負のクラスサンプルに使用される。
また,人工データセットを必要とせずにOCCをLTとして動作させるアルゴリズムを改良した確率勾配降下法(SGD)を導出する。
さらに、適切なカーネルを持つOCLSSVMが収束時にLTとして動作することを示す。
最後に、広く使われているオートエンコーダ(AE)分類器が一般にLTを提供していないことを証明する。
関連論文リスト
- Exploring Beyond Logits: Hierarchical Dynamic Labeling Based on Embeddings for Semi-Supervised Classification [49.09505771145326]
モデル予測に依存しない階層型動的ラベル付け(HDL)アルゴリズムを提案し,画像埋め込みを用いてサンプルラベルを生成する。
本手法は,半教師付き学習における擬似ラベル生成のパラダイムを変える可能性がある。
論文 参考訳(メタデータ) (2024-04-26T06:00:27Z) - PromptSync: Bridging Domain Gaps in Vision-Language Models through Class-Aware Prototype Alignment and Discrimination [14.50214193838818]
CLIPのようなビジョン言語(V-L)モデルのゼロショット一般化は、広く採用されている。
従来の手法では、テスト時のプロンプトチューニングを使用して、モデルを目に見えない領域に適応させたが、不均衡なクラス分布の問題を見落としていた。
本研究では,テストサンプルとフィルタ付き拡張ビューで得られた平均クラス確率によって重み付けされたクラス認識型プロトタイプアライメントを採用する。
論文 参考訳(メタデータ) (2024-04-11T07:26:00Z) - Collaborative Learning with Different Labeling Functions [8.53926206853583]
我々は、$n$のデータ分布ごとに正確な分類器を学習することを目的とした、協調型PAC学習の亜種について研究する。
データ分布がより弱い実現可能性の仮定を満たす場合、サンプル効率の学習は依然として可能であることを示す。
論文 参考訳(メタデータ) (2024-02-16T04:32:22Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - UCSL : A Machine Learning Expectation-Maximization framework for
Unsupervised Clustering driven by Supervised Learning [2.133032470368051]
Subtype Discoveryは、データセットの解釈可能で一貫性のあるサブ部分を見つけることで構成される。
UCSL (Unsupervised Clustering driven by Supervised Learning) という汎用的な期待最大化アンサンブルフレームワークを提案する。
我々の手法は汎用的であり、任意のクラスタリング手法を統合することができ、バイナリ分類と回帰の両方によって駆動することができる。
論文 参考訳(メタデータ) (2021-07-05T12:55:13Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - A Boundary Based Out-of-Distribution Classifier for Generalized
Zero-Shot Learning [83.1490247844899]
Generalized Zero-Shot Learning (GZSL)は多くの現実的なシナリオにおいて有望な見通しを持つ挑戦的なトピックである。
本研究では,見知らぬ領域を学習用サンプルのみを用いて分類する境界に基づくアウト・オブ・ディストリビューション(OOD)分類器を提案する。
我々は、AWA1、AWA2、CUB、FLO、SUNを含む5つの人気のあるベンチマークデータセットに対して、我々のアプローチを広範囲に検証する。
論文 参考訳(メタデータ) (2020-08-09T11:27:19Z) - G2D: Generate to Detect Anomaly [10.977404378308817]
我々は、通常のサンプルのみを用いて、GANスタイルの2つのディープニューラルネットワーク(ジェネレータと判別器)を学習する。
トレーニングフェーズでは、ジェネレータが正常なデータの生成に失敗した場合、不規則なジェネレータと見なすことができる。
生成した異常サンプルのバイナリ分類器と正常なインスタンスをトレーニングして不規則を検出する。
論文 参考訳(メタデータ) (2020-06-20T18:02:50Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。