論文の概要: Supervised dimensionality reduction by a Linear Discriminant Analysis on
pre-trained CNN features
- arxiv url: http://arxiv.org/abs/2006.12127v1
- Date: Mon, 22 Jun 2020 10:31:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 06:23:58.493623
- Title: Supervised dimensionality reduction by a Linear Discriminant Analysis on
pre-trained CNN features
- Title(参考訳): 事前学習したcnn特徴の線形判別分析による教師付き次元減少
- Authors: Francisco J. H. Heras, Gonzalo G. de Polavieja
- Abstract要約: 我々は、事前訓練された深部畳み込みニューラルネットワーク(CNN)の異なる層で得られた特徴に対する線形判別分析(LDA)の適用について検討する。
CNNの機能に適用されたLDAは、類似したデータに対応するクラスのセントロイドが、異なるデータに対応するクラスよりも近いことを発見した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We explore the application of linear discriminant analysis (LDA) to the
features obtained in different layers of pretrained deep convolutional neural
networks (CNNs). The advantage of LDA compared to other techniques in
dimensionality reduction is that it reduces dimensions while preserving the
global structure of data, so distances in the low-dimensional structure found
are meaningful. The LDA applied to the CNN features finds that the centroids of
classes corresponding to the similar data lay closer than classes corresponding
to different data. We applied the method to a modification of the MNIST dataset
with ten additional classes, each new class with half of the images from one of
the standard ten classes. The method finds the new classes close to the
corresponding standard classes we took the data form. We also applied the
method to a dataset of images of butterflies to find that related subspecies
are found to be close. For both datasets, we find a performance similar to
state-of-the-art methods.
- Abstract(参考訳): 本稿では,線形判別分析(LDA)の,事前訓練された深層畳み込みニューラルネットワーク(CNN)の異なる層で得られた特徴について検討する。
LDAの他の次元減少技術と比較して利点は、データのグローバルな構造を保ちながら次元を減らし、低次元構造における距離が意味を持つことである。
CNNの機能に適用されたLDAは、類似したデータに対応するクラスのセントロイドが、異なるデータに対応するクラスよりも近いことを発見した。
我々は、mnistデータセットに10のクラスを追加し、各クラスに標準の10のクラスのうちの1つからの画像の半分を追加して修正する方法を適用した。
メソッドは、私たちがデータフォームを取った対応する標準クラスに近い新しいクラスを見つけます。
また,本手法を蝶の画像データセットに適用し,関連亜種が近縁であることが確認された。
どちらのデータセットでも、最先端のメソッドと同じようなパフォーマンスが得られます。
関連論文リスト
- Synergistic eigenanalysis of covariance and Hessian matrices for
enhanced binary classification [75.90957645766676]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
我々のアプローチは、クラス間の平均距離を最大化し、クラス内の分散を最小化する能力を確立する形式的な証明によって裏付けられている。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - Continual learning for surface defect segmentation by subnetwork
creation and selection [55.2480439325792]
破滅的な忘れを伴わずにセグメンテーションタスクを実行する,新たな連続的(あるいは寿命の長い)学習アルゴリズムを導入する。
この方法は、2つの異なる表面欠陥分割問題に適用され、漸進的に学習される。
当社のアプローチでは,すべてのトレーニングデータ(すべての欠陥)を同時に見る場合,共同トレーニングと同等の結果が得られます。
論文 参考訳(メタデータ) (2023-12-08T15:28:50Z) - Minimally Informed Linear Discriminant Analysis: training an LDA model
with unlabelled data [51.673443581397954]
本研究では,LDAモデルからの正確な射影ベクトルを,ラベルのないデータに基づいて計算可能であることを示す。
MILDA投影ベクトルはLDAに匹敵する計算コストで閉じた形で計算可能であることを示す。
論文 参考訳(メタデータ) (2023-10-17T09:50:31Z) - Hidden Classification Layers: Enhancing linear separability between
classes in neural networks layers [0.0]
トレーニング手法の深層ネットワーク性能への影響について検討する。
本稿では,全てのネットワークレイヤの出力を含むエラー関数を誘導するニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-09T10:52:49Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - A Topological Data Analysis Based Classifier [1.6668132748773563]
本稿では,多クラス分類問題に直接トポロジカルデータ解析を適用するアルゴリズムを提案する。
提案アルゴリズムは,データセット上にフィルタされた単純複合体を構築する。
提案手法は平均してKNNと重み付きKNNよりも優れていた。
論文 参考訳(メタデータ) (2021-11-09T15:54:16Z) - Manifold Topology Divergence: a Framework for Comparing Data Manifolds [109.0784952256104]
本研究では,深部生成モデルの評価を目的としたデータ多様体の比較フレームワークを開発する。
クロスバーコードに基づき,manifold Topology Divergence score(MTop-Divergence)を導入する。
MTop-Divergenceは,様々なモードドロップ,モード内崩壊,モード発明,画像乱れを正確に検出する。
論文 参考訳(メタデータ) (2021-06-08T00:30:43Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Classification based on Topological Data Analysis [1.6668132748773563]
トポロジカルデータ分析(TDA)は、データセットに隠されたトポロジカル情報を見つけることを目的とした創発的な分野である。
本稿では,TDAをマルチクラス分類問題に直接適用するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T03:47:28Z) - Manifold Partition Discriminant Analysis [42.11470531267327]
本稿では,MPDA (Manifold Partition Discriminant Analysis) という,ディメンタリティ低減のための新しいアルゴリズムを提案する。
これは、データ多様体の局所的変動と一致する方向に沿ってクラス内類似性が達成される線形埋め込み空間を見つけることを目的としている。
MPDAは接空間の接続を明示的にパラメータ化し、データ多様体を断片的に表現する。
論文 参考訳(メタデータ) (2020-11-23T16:33:23Z) - Performance Evaluation of t-SNE and MDS Dimensionality Reduction
Techniques with KNN, ENN and SVM Classifiers [1.8262547855491456]
t-distributed Neighbor Embedding (t-SNE) と Multidimensional Scaling (MDS) は9つの異なるデータセットに適用される。
t-SNEアルゴリズムとMDSアルゴリズムを適用することで、各データセットは不要な特徴を排除して元の次元の半分に変換される。
論文 参考訳(メタデータ) (2020-06-20T08:13:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。