論文の概要: On Supervised Classification of Feature Vectors with Independent and
Non-Identically Distributed Elements
- arxiv url: http://arxiv.org/abs/2008.00190v2
- Date: Tue, 30 Mar 2021 00:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 01:11:52.418645
- Title: On Supervised Classification of Feature Vectors with Independent and
Non-Identically Distributed Elements
- Title(参考訳): 独立および非独立分散要素を持つ特徴ベクトルの教師付き分類について
- Authors: Farzad Shahrivari and Nikola Zlatanov
- Abstract要約: 特徴ベクトルを互いに独立だが非独立に分散した要素で分類する問題について検討する。
ラベル毎に1つのトレーニング特徴ベクトルしか持たない場合でも,特徴ベクトルの長さが大きくなるにつれて誤差確率がゼロになることを示す。
- 参考スコア(独自算出の注目度): 10.52087851034255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate the problem of classifying feature vectors with
mutually independent but non-identically distributed elements. First, we show
the importance of this problem. Next, we propose a classifier and derive an
analytical upper bound on its error probability. We show that the error
probability goes to zero as the length of the feature vectors grows, even when
there is only one training feature vector per label available. Thereby, we show
that for this important problem at least one asymptotically optimal classifier
exists. Finally, we provide numerical examples where we show that the
performance of the proposed classifier outperforms conventional classification
algorithms when the number of training data is small and the length of the
feature vectors is sufficiently high.
- Abstract(参考訳): 本稿では,互いに独立だが非同一の分散要素を持つ特徴ベクトルを分類する問題について検討する。
まず、この問題の重要性を示す。
次に,分類器を提案し,その誤差確率の解析上界を導出する。
ラベル毎に1つのトレーニング特徴ベクトルしか持たない場合でも,特徴ベクトルの長さが大きくなるにつれて誤差確率がゼロになることを示す。
したがって,この重要な問題に対して,少なくとも1つの漸近的最適分類器が存在することを示す。
最後に,提案した分類器の性能が,トレーニングデータの数が小さく,特徴ベクトルの長さが十分高い場合に,従来の分類アルゴリズムより優れていることを示す数値例を示す。
関連論文リスト
- An Upper Bound for the Distribution Overlap Index and Its Applications [18.481370450591317]
本稿では,2つの確率分布間の重なり関数に対する計算容易な上限を提案する。
提案した境界は、一級分類と領域シフト解析においてその値を示す。
私たちの研究は、重複ベースのメトリクスの応用を拡大する大きな可能性を示しています。
論文 参考訳(メタデータ) (2022-12-16T20:02:03Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Exploring Category-correlated Feature for Few-shot Image Classification [27.13708881431794]
本稿では,従来の知識として,新しいクラスとベースクラスのカテゴリ相関を探索し,シンプルで効果的な特徴補正手法を提案する。
提案手法は, 広く使用されている3つのベンチマークにおいて, 一定の性能向上が得られる。
論文 参考訳(メタデータ) (2021-12-14T08:25:24Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Approximation and generalization properties of the random projection classification method [0.4604003661048266]
ランダムな一次元特徴を閾値付けした低複素度分類器群について検討する。
特定の分類問題(例えば、大きな羅生門比を持つもの)に対して、ランダムにパラメータを選択することにより、一般化特性において潜在的に大きな利得がある。
論文 参考訳(メタデータ) (2021-08-11T23:14:46Z) - Minimax Estimation of Linear Functions of Eigenvectors in the Face of
Small Eigen-Gaps [95.62172085878132]
固有ベクトル摂動解析は様々な統計データ科学の応用において重要な役割を果たす。
未知の固有ベクトルの任意の線型関数の摂動を特徴付ける統計理論の一組を開発する。
自然の「プラグイン」推定器に固有の非無視バイアス問題を緩和するために,非バイアス推定器を開発する。
論文 参考訳(メタデータ) (2021-04-07T17:55:10Z) - Counterfactual Explanations for Oblique Decision Trees: Exact, Efficient
Algorithms [0.0]
我々は、ソース入力インスタンスにおける特徴を最小に調整して、与えられた分類の下で対象クラスに分類する問題である、反事実的説明を考える。
これは、トレーニングされたモデルをクエリし、決定を覆す可能性のあるアクションを提案する手段として、最近の関心事となっている。
論文 参考訳(メタデータ) (2021-03-01T16:04:33Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Semi-supervised Disentanglement with Independent Vector Variational
Autoencoders [7.700240949386079]
本研究では,データ生成因子を変分オートエンコーダ内の2つの潜在ベクトルに分割する。
個別のクラスの特徴を学習するために,少量のラベル付きデータを用いた監視を導入する。
i) このベクトル独立項は、複数の潜在ベクトルと下界を分解した証拠から得られた結果の中に存在し、(ii)ベクトル内の総相関を減らし、その独立を奨励することにより、非絡み合い性能が向上することを示す。
論文 参考訳(メタデータ) (2020-03-14T09:20:22Z) - Invariant Feature Coding using Tensor Product Representation [75.62232699377877]
我々は,群不変特徴ベクトルが線形分類器を学習する際に十分な識別情報を含んでいることを証明した。
主成分分析やk平均クラスタリングにおいて,グループアクションを明示的に考慮する新たな特徴モデルを提案する。
論文 参考訳(メタデータ) (2019-06-05T07:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。