論文の概要: A Novel Approach to Regularising 1NN classifier for Improved
Generalization
- arxiv url: http://arxiv.org/abs/2402.08405v1
- Date: Tue, 13 Feb 2024 12:09:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 15:29:06.968214
- Title: A Novel Approach to Regularising 1NN classifier for Improved
Generalization
- Title(参考訳): 1nn分類器の一般化のための新しい規則化手法
- Authors: Aditya Challa, Sravan Danda, Laurent Najman
- Abstract要約: 流域分類器は、十分な密度のデータセット上で任意の境界を見つけることができ、同時に非常に小さなVC次元を持つことを示す。
本研究では,流域分類器に整合した表現を学習可能な損失関数を提案し,NAAベースラインよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 3.9919322607068293
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we propose a class of non-parametric classifiers, that learn
arbitrary boundaries and generalize well.
Our approach is based on a novel way to regularize 1NN classifiers using a
greedy approach. We refer to this class of classifiers as Watershed
Classifiers. 1NN classifiers are known to trivially over-fit but have very
large VC dimension, hence do not generalize well. We show that watershed
classifiers can find arbitrary boundaries on any dense enough dataset, and, at
the same time, have very small VC dimension; hence a watershed classifier leads
to good generalization.
Traditional approaches to regularize 1NN classifiers are to consider $K$
nearest neighbours. Neighbourhood component analysis (NCA) proposes a way to
learn representations consistent with ($n-1$) nearest neighbour classifier,
where $n$ denotes the size of the dataset. In this article, we propose a loss
function which can learn representations consistent with watershed classifiers,
and show that it outperforms the NCA baseline.
- Abstract(参考訳): 本稿では,任意の境界を学習し,よく一般化する非パラメトリック分類器のクラスを提案する。
本手法は,greedyアプローチを用いて1NN分類器を正規化する方法に基づいている。
我々は、この分類器のクラスを、Watershed Classifiersと呼ぶ。
1NN分類器は自明に過度に適合することが知られているが、非常に大きなVC次元を持つため、うまく一般化しない。
流域分類器は十分な密度のデータセット上で任意の境界を見つけることができ、同時に非常に小さなVC次元を持つので、流域分類器は優れた一般化をもたらす。
1NN分類器を正規化するための伝統的なアプローチは、近隣の$K$を考えることである。
隣り合うコンポーネント分析(NCA)は、データセットのサイズを表す$n$(n-1$)近傍の分類器と整合した表現を学習する方法を提案する。
本稿では,流域分類器と整合した表現を学習できる損失関数を提案し,ncaベースラインよりも優れることを示す。
関連論文リスト
- Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Nearest Neighbor Zero-Shot Inference [68.56747574377215]
kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
論文 参考訳(メタデータ) (2022-05-27T07:00:59Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - CondNet: Conditional Classifier for Scene Segmentation [46.62529212678346]
従来のグローバル分類器を置き換える条件付き分類器を提案する。
クラス内での区別に参画し、より高密度な認識能力に繋がる。
条件付き分類器(CondNetと呼ばれる)を備えたフレームワークは、2つのデータセットで新しい最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-09-21T17:19:09Z) - Approximation and generalization properties of the random projection classification method [0.4604003661048266]
ランダムな一次元特徴を閾値付けした低複素度分類器群について検討する。
特定の分類問題(例えば、大きな羅生門比を持つもの)に対して、ランダムにパラメータを選択することにより、一般化特性において潜在的に大きな利得がある。
論文 参考訳(メタデータ) (2021-08-11T23:14:46Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - For self-supervised learning, Rationality implies generalization,
provably [13.526562756159809]
自己超越法を用いて得られた分類器の一般化ギャップに新たな上限を証明した。
我々は,CIFAR-10 や ImageNet 上の多くの一般的な表現学習ベース分類器に対して,我々の境界は空白ではないことを示す。
論文 参考訳(メタデータ) (2020-10-16T17:07:52Z) - Forest R-CNN: Large-Vocabulary Long-Tailed Object Detection and Instance
Segmentation [75.93960390191262]
我々は、オブジェクトカテゴリ間の関係に関する事前知識を利用して、きめ細かいクラスを粗い親クラスにクラスタリングする。
そこで本研究では,NMS再サンプリング法を提案する。
提案手法はフォレストR-CNNと呼ばれ,ほとんどのオブジェクト認識モデルに適用可能なプラグイン・アンド・プレイモジュールとして機能する。
論文 参考訳(メタデータ) (2020-08-13T03:52:37Z) - A Systematic Evaluation: Fine-Grained CNN vs. Traditional CNN
Classifiers [54.996358399108566]
本稿では,大規模分類データセット上でトップノーチ結果を示すランドマーク一般的なCNN分類器の性能について検討する。
最先端のきめ細かい分類器と比較する。
実験において, 粒度の細かい分類器がベースラインを高められるかどうかを判定するために, 6つのデータセットについて広範囲に評価する。
論文 参考訳(メタデータ) (2020-03-24T23:49:14Z) - Intrinsic Dimension Estimation via Nearest Constrained Subspace
Classifier [7.028302194243312]
教師付き分類や固有次元推定のために,新しい部分空間に基づく分類器を提案する。
各クラスのデータの分布は、特徴空間の有限個のファイン部分空間の和によってモデル化される。
The proposed method is a generalization of classical NN (Nearest Neighbor), NFL (Nearest Feature Line) and has a close relationship with NS (Nearest Subspace)。
推定次元パラメータが正確に推定された分類器は、一般に分類精度の点で競合より優れている。
論文 参考訳(メタデータ) (2020-02-08T20:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。