論文の概要: Multi-Class Classification from Single-Class Data with Confidences
- arxiv url: http://arxiv.org/abs/2106.08864v1
- Date: Wed, 16 Jun 2021 15:38:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-17 17:38:02.394759
- Title: Multi-Class Classification from Single-Class Data with Confidences
- Title(参考訳): 矛盾のある単一クラスデータからの複数クラス分類
- Authors: Yuzhou Cao, Lei Feng, Senlin Shu, Yitian Xu, Bo An, Gang Niu, Masashi
Sugiyama
- Abstract要約: 本稿では,損失/モデル/最適化非依存のリスク最小化フレームワークを提案する。
提案手法は, 与えられた信頼度が高ノイズであっても, 簡易な修正でベイズ整合性を示す。
- 参考スコア(独自算出の注目度): 90.48669386745361
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Can we learn a multi-class classifier from only data of a single class? We
show that without any assumptions on the loss functions, models, and
optimizers, we can successfully learn a multi-class classifier from only data
of a single class with a rigorous consistency guarantee when confidences (i.e.,
the class-posterior probabilities for all the classes) are available.
Specifically, we propose an empirical risk minimization framework that is
loss-/model-/optimizer-independent. Instead of constructing a boundary between
the given class and other classes, our method can conduct discriminative
classification between all the classes even if no data from the other classes
are provided. We further theoretically and experimentally show that our method
can be Bayes-consistent with a simple modification even if the provided
confidences are highly noisy. Then, we provide an extension of our method for
the case where data from a subset of all the classes are available.
Experimental results demonstrate the effectiveness of our methods.
- Abstract(参考訳): 1つのクラスのデータのみから、マルチクラス分類子を学べますか?
損失関数,モデル,オプティマイザに関する仮定がなければ,信頼度(すなわち,すべてのクラスに対するクラス後確率)が得られれば,厳密な一貫性を保証する単一クラスのデータのみから,マルチクラス分類器を学べることを示す。
具体的には,損失/モデル/最適化非依存な経験的リスク最小化フレームワークを提案する。
与えられたクラスと他のクラスの境界を構築する代わりに、他のクラスからのデータが提供されていなくても、すべてのクラス間で判別的な分類を行うことができる。
さらに理論および実験により,提案手法は,信頼度が極めて高い場合であっても,簡単な修正でベイズ一貫性を発揮できることを示した。
次に、すべてのクラスのサブセットからのデータが利用可能である場合に、このメソッドの拡張を提供する。
実験の結果,本手法の有効性が示された。
関連論文リスト
- Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - Can Class-Priors Help Single-Positive Multi-Label Learning? [40.312419865957224]
シングル陽性マルチラベル学習(SPMLL)は、典型的には弱教師付きマルチラベル学習問題である。
クラスプライア推定器を導入し、理論上はクラスプライアに収束することが保証されているクラスプライアを推定することができる。
推定されたクラスプライヤに基づいて、分類のための非バイアスリスク推定器が導出され、対応するリスク最小化器が、完全に教師されたデータ上で、最適リスク最小化器にほぼ収束することを保証できる。
論文 参考訳(メタデータ) (2023-09-25T05:45:57Z) - Review of Methods for Handling Class-Imbalanced in Classification
Problems [0.0]
場合によっては、あるクラスはほとんどの例を含むが、他方はより重要なクラスであり、しかしながら、少数の例で表される。
本稿では、データレベル、アルゴリズムレベル、ハイブリッド、コスト感受性学習、ディープラーニングを含む、クラス不均衡による学習の問題に対処する最も広く使われている手法について検討する。
論文 参考訳(メタデータ) (2022-11-10T10:07:10Z) - Learning from Multiple Unlabeled Datasets with Partial Risk
Regularization [80.54710259664698]
本稿では,クラスラベルを使わずに正確な分類器を学習することを目的とする。
まず、与えられたラベルのない集合から推定できる分類リスクの偏りのない推定器を導出する。
その結果、経験的リスクがトレーニング中に負になるにつれて、分類器が過度に適合する傾向があることが判明した。
実験により,本手法は,複数の未ラベル集合から学習する最先端の手法を効果的に緩和し,性能を向上することを示した。
論文 参考訳(メタデータ) (2022-07-04T16:22:44Z) - A Similarity-based Framework for Classification Task [21.182406977328267]
類似性に基づく手法は,複数ラベル学習のための新しい手法のクラスを生み出し,有望な性能を達成する。
類似性に基づく学習と一般化された線形モデルを組み合わせて、両方の世界のベストを達成します。
論文 参考訳(メタデータ) (2022-03-05T06:39:50Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Meta Learning for Few-Shot One-class Classification [0.0]
メタ学習問題として,一級分類における意味のある特徴の学習を定式化する。
これらの表現を学習するには、類似したタスクからのマルチクラスデータのみが必要である。
数ショットの分類データセットを、数ショットの1クラスの分類シナリオに適応させることで、我々のアプローチを検証する。
論文 参考訳(メタデータ) (2020-09-11T11:35:28Z) - Few-Shot Learning with Intra-Class Knowledge Transfer [100.87659529592223]
アンバランスなデータセットを用いた数発の分類タスクについて検討する。
近年の研究では、生成モデルを用いて数発の授業のトレーニングデータを増やすことで、この課題を解決することが提案されている。
本稿では,近隣クラスが類似した統計情報を共有するという直感で,近隣クラスからのクラス内知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-08-22T18:15:38Z) - Multi-Class Classification from Noisy-Similarity-Labeled Data [98.13491369929798]
雑音に類似したラベル付きデータのみから学習する方法を提案する。
ノイズ遷移行列を用いて、クリーンデータとノイズデータの間にクラス後確率をブリッジする。
雑音のないクラスラベルをインスタンスに割り当てる新しい学習システムを構築した。
論文 参考訳(メタデータ) (2020-02-16T05:10:21Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。