論文の概要: Evolutionary Simplicial Learning as a Generative and Compact Sparse
Framework for Classification
- arxiv url: http://arxiv.org/abs/2005.07076v1
- Date: Thu, 14 May 2020 15:44:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 04:29:55.205457
- Title: Evolutionary Simplicial Learning as a Generative and Compact Sparse
Framework for Classification
- Title(参考訳): 創発的・コンパクトな分類用スパースフレームワークとしての進化的単純学習
- Authors: Yigit Oktar, Mehmet Turkan
- Abstract要約: 単純学習(simplicial learning)は辞書学習の適応であり、サブスペースをクリップして任意のオフセットを取得する。
本稿では,分類のための生成的かつコンパクトなスパースフレームワークとして,進化的simplicial learning法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dictionary learning for sparse representations has been successful in many
reconstruction tasks. Simplicial learning is an adaptation of dictionary
learning, where subspaces become clipped and acquire arbitrary offsets, taking
the form of simplices. Such adaptation is achieved through additional
constraints on sparse codes. Furthermore, an evolutionary approach can be
chosen to determine the number and the dimensionality of simplices composing
the simplicial, in which most generative and compact simplicials are favored.
This paper proposes an evolutionary simplicial learning method as a generative
and compact sparse framework for classification. The proposed approach is first
applied on a one-class classification task and it appears as the most reliable
method within the considered benchmark. Most surprising results are observed
when evolutionary simplicial learning is considered within a multi-class
classification task. Since sparse representations are generative in nature,
they bear a fundamental problem of not being capable of distinguishing two
classes lying on the same subspace. This claim is validated through synthetic
experiments and superiority of simplicial learning even as a generative-only
approach is demonstrated. Simplicial learning loses its superiority over
discriminative methods in high-dimensional cases but can further be modified
with discriminative elements to achieve state-of-the-art performance in
classification tasks.
- Abstract(参考訳): スパース表現のための辞書学習は多くの再構成作業で成功している。
単純学習(Simplicial learning)は、辞書学習の適応であり、サブスペースをクリップして任意のオフセットを取得し、単純化の形を取る。
このような適応はスパース符号に対する追加の制約によって達成される。
さらに、進化的アプローチは、ほとんどの生成的およびコンパクトな簡約が好まれる、簡約を構成する簡約の個数と次元を決定するために選択することができる。
本稿では,分類のための生成的かつコンパクトなスパースフレームワークとして,進化的単純学習法を提案する。
提案手法は最初,一級分類タスクに適用され,検討されたベンチマークの中では最も信頼性の高い手法と考えられる。
最も驚くべき結果は、進化的単純学習が多クラス分類タスクの中で考慮されるときに観察される。
スパース表現は本質的に生成的であるため、同じ部分空間上にある2つのクラスを区別できないという根本的な問題がある。
この主張は、生成的アプローチが実証されても、合成実験と単純学習の優越性によって検証される。
単純学習は、高次元の場合の判別法よりも優れているが、分類タスクにおける最先端のパフォーマンスを達成するために、識別要素でさらに修正することができる。
関連論文リスト
- Cross-Class Feature Augmentation for Class Incremental Learning [45.91253737682168]
本稿では,敵対的攻撃を動機とした機能強化手法を取り入れた新しいクラスインクリメンタルラーニング手法を提案する。
提案手法は,任意の対象クラスの特徴を増大させるため,クラスインクリメンタルラーニングにおける従来の知識を活用するためのユニークな視点を持つ。
提案手法は,様々なシナリオにおいて,既存の段階的学習手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-04-04T15:48:09Z) - Learning Context-aware Classifier for Semantic Segmentation [88.88198210948426]
本稿では,文脈認識型分類器の学習を通じて文脈ヒントを利用する。
本手法はモデルに依存しないため,ジェネリックセグメンテーションモデルにも容易に適用できる。
無視できる追加パラメータと+2%の推論時間だけで、小型モデルと大型モデルの両方で十分な性能向上が達成されている。
論文 参考訳(メタデータ) (2023-03-21T07:00:35Z) - Generalization Bounds for Few-Shot Transfer Learning with Pretrained
Classifiers [26.844410679685424]
本研究では,新しいクラスに移動可能な分類の表現を基礎モデルで学習する能力について検討する。
クラス-機能-変数の崩壊の場合,新しいクラスで学習した特徴マップのわずかな誤差が小さいことを示す。
論文 参考訳(メタデータ) (2022-12-23T18:46:05Z) - Learning Primitive-aware Discriminative Representations for Few-shot
Learning [28.17404445820028]
少ないショットラーニングは、いくつかのラベル付き例で、新しいクラスを容易に認識できる分類器を学習することを目的としている。
プリミティブ・マイニング・アンド・リ共振ネットワーク(PMRN)を提案し,プリミティブ・アウェアな表現を学習する。
提案手法は,6つの標準ベンチマークの最先端結果を実現する。
論文 参考訳(メタデータ) (2022-08-20T16:22:22Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Open-Set Representation Learning through Combinatorial Embedding [62.05670732352456]
ラベル付きクラスとラベルなしクラスの両方の例に基づく表現学習を通じて、データセットにおける新しい概念を識別することに興味がある。
異種ラベル空間上の複数の教師付きメタクラス分類器によって与えられる構成知識を用いて、自然に未知のクラス内のサンプルをクラスタリングする学習手法を提案する。
提案アルゴリズムは,未確認クラスの識別性の向上と,新しいクラスに一般化可能な既知のクラス表現の学習を併用して,新しい概念を探索する。
論文 参考訳(メタデータ) (2021-06-29T11:51:57Z) - Class-Incremental Learning with Generative Classifiers [6.570917734205559]
本稿では,クラス増分学習のための新しい戦略を提案する。
本提案は,p(x|y)p(y) として分解された合同分布 p(x,y) を学習し,ベイズ則を用いた分類を行うことである。
ここでは,各学習クラスに対して,変分オートエンコーダをトレーニングすることで,この戦略を実証する。
論文 参考訳(メタデータ) (2021-04-20T16:26:14Z) - Affinity-Based Hierarchical Learning of Dependent Concepts for Human
Activity Recognition [6.187780920448871]
重なり合うクラスを階層化することで、分類性能が大幅に向上することを示す。
これは、SHLデータセットに特徴付けられるアクティビティ認識タスクの場合、特に当てはまります。
学習プロセスの最適階層を決定するために,クラス間の移動親和性に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-04-11T01:08:48Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。