論文の概要: Supervised dimensionality reduction by a Linear Discriminant Analysis on
pre-trained CNN features
- arxiv url: http://arxiv.org/abs/2006.12127v1
- Date: Mon, 22 Jun 2020 10:31:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 06:23:58.493623
- Title: Supervised dimensionality reduction by a Linear Discriminant Analysis on
pre-trained CNN features
- Title(参考訳): 事前学習したcnn特徴の線形判別分析による教師付き次元減少
- Authors: Francisco J. H. Heras, Gonzalo G. de Polavieja
- Abstract要約: 我々は、事前訓練された深部畳み込みニューラルネットワーク(CNN)の異なる層で得られた特徴に対する線形判別分析(LDA)の適用について検討する。
CNNの機能に適用されたLDAは、類似したデータに対応するクラスのセントロイドが、異なるデータに対応するクラスよりも近いことを発見した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We explore the application of linear discriminant analysis (LDA) to the
features obtained in different layers of pretrained deep convolutional neural
networks (CNNs). The advantage of LDA compared to other techniques in
dimensionality reduction is that it reduces dimensions while preserving the
global structure of data, so distances in the low-dimensional structure found
are meaningful. The LDA applied to the CNN features finds that the centroids of
classes corresponding to the similar data lay closer than classes corresponding
to different data. We applied the method to a modification of the MNIST dataset
with ten additional classes, each new class with half of the images from one of
the standard ten classes. The method finds the new classes close to the
corresponding standard classes we took the data form. We also applied the
method to a dataset of images of butterflies to find that related subspecies
are found to be close. For both datasets, we find a performance similar to
state-of-the-art methods.
- Abstract(参考訳): 本稿では,線形判別分析(LDA)の,事前訓練された深層畳み込みニューラルネットワーク(CNN)の異なる層で得られた特徴について検討する。
LDAの他の次元減少技術と比較して利点は、データのグローバルな構造を保ちながら次元を減らし、低次元構造における距離が意味を持つことである。
CNNの機能に適用されたLDAは、類似したデータに対応するクラスのセントロイドが、異なるデータに対応するクラスよりも近いことを発見した。
我々は、mnistデータセットに10のクラスを追加し、各クラスに標準の10のクラスのうちの1つからの画像の半分を追加して修正する方法を適用した。
メソッドは、私たちがデータフォームを取った対応する標準クラスに近い新しいクラスを見つけます。
また,本手法を蝶の画像データセットに適用し,関連亜種が近縁であることが確認された。
どちらのデータセットでも、最先端のメソッドと同じようなパフォーマンスが得られます。
関連論文リスト
- Domain-decomposed image classification algorithms using linear discriminant analysis and convolutional neural networks [0.0]
2つの異なる領域分割されたCNNモデルは、異なる画像分類問題に対して実験的に比較される。
その結果,グローバルCNNモデルと比較すると,分類精度が向上した。
局所化アプローチにも依存し,小さなニューラルネットワークモデルと組み合わせた,新しい分解型LDA戦略を提案する。
論文 参考訳(メタデータ) (2024-10-30T18:07:12Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Continual learning for surface defect segmentation by subnetwork
creation and selection [55.2480439325792]
破滅的な忘れを伴わずにセグメンテーションタスクを実行する,新たな連続的(あるいは寿命の長い)学習アルゴリズムを導入する。
この方法は、2つの異なる表面欠陥分割問題に適用され、漸進的に学習される。
当社のアプローチでは,すべてのトレーニングデータ(すべての欠陥)を同時に見る場合,共同トレーニングと同等の結果が得られます。
論文 参考訳(メタデータ) (2023-12-08T15:28:50Z) - Minimally Informed Linear Discriminant Analysis: training an LDA model
with unlabelled data [51.673443581397954]
本研究では,LDAモデルからの正確な射影ベクトルを,ラベルのないデータに基づいて計算可能であることを示す。
MILDA投影ベクトルはLDAに匹敵する計算コストで閉じた形で計算可能であることを示す。
論文 参考訳(メタデータ) (2023-10-17T09:50:31Z) - Hidden Classification Layers: Enhancing linear separability between
classes in neural networks layers [0.0]
トレーニング手法の深層ネットワーク性能への影響について検討する。
本稿では,全てのネットワークレイヤの出力を含むエラー関数を誘導するニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-09T10:52:49Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - A Topological Data Analysis Based Classifier [1.6668132748773563]
本稿では,多クラス分類問題に直接トポロジカルデータ解析を適用するアルゴリズムを提案する。
提案アルゴリズムは,データセット上にフィルタされた単純複合体を構築する。
提案手法は平均してKNNと重み付きKNNよりも優れていた。
論文 参考訳(メタデータ) (2021-11-09T15:54:16Z) - Manifold Topology Divergence: a Framework for Comparing Data Manifolds [109.0784952256104]
本研究では,深部生成モデルの評価を目的としたデータ多様体の比較フレームワークを開発する。
クロスバーコードに基づき,manifold Topology Divergence score(MTop-Divergence)を導入する。
MTop-Divergenceは,様々なモードドロップ,モード内崩壊,モード発明,画像乱れを正確に検出する。
論文 参考訳(メタデータ) (2021-06-08T00:30:43Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Classification based on Topological Data Analysis [1.6668132748773563]
トポロジカルデータ分析(TDA)は、データセットに隠されたトポロジカル情報を見つけることを目的とした創発的な分野である。
本稿では,TDAをマルチクラス分類問題に直接適用するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T03:47:28Z) - Performance Evaluation of t-SNE and MDS Dimensionality Reduction
Techniques with KNN, ENN and SVM Classifiers [1.8262547855491456]
t-distributed Neighbor Embedding (t-SNE) と Multidimensional Scaling (MDS) は9つの異なるデータセットに適用される。
t-SNEアルゴリズムとMDSアルゴリズムを適用することで、各データセットは不要な特徴を排除して元の次元の半分に変換される。
論文 参考訳(メタデータ) (2020-06-20T08:13:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。