論文の概要: Learning optimally separated class-specific subspace representations
using convolutional autoencoder
- arxiv url: http://arxiv.org/abs/2105.08865v1
- Date: Wed, 19 May 2021 00:45:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 13:49:36.837516
- Title: Learning optimally separated class-specific subspace representations
using convolutional autoencoder
- Title(参考訳): 畳み込みオートエンコーダを用いたクラス固有部分空間表現の最適分離学習
- Authors: Krishan Sharma (1), Shikha Gupta (1), Renu Rameshan (2) ((1) Vehant
Technologies Pvt. Ltd., (2) Indian Institute of Technology Mandi, India)
- Abstract要約: サブスペース固有の特徴表現を生成するための新しい畳み込みオートエンコーダアーキテクチャを提案する。
提案手法の有効性を実証するため,最先端の機械学習データセットを用いていくつかの実験を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a novel convolutional autoencoder based architecture
to generate subspace specific feature representations that are best suited for
classification task. The class-specific data is assumed to lie in low
dimensional linear subspaces, which could be noisy and not well separated,
i.e., subspace distance (principal angle) between two classes is very low. The
proposed network uses a novel class-specific self expressiveness (CSSE) layer
sandwiched between encoder and decoder networks to generate class-wise subspace
representations which are well separated. The CSSE layer along with encoder/
decoder are trained in such a way that data still lies in subspaces in the
feature space with minimum principal angle much higher than that of the input
space. To demonstrate the effectiveness of the proposed approach, several
experiments have been carried out on state-of-the-art machine learning datasets
and a significant improvement in classification performance is observed over
existing subspace based transformation learning methods.
- Abstract(参考訳): 本稿では,分類タスクに最適な部分空間固有の特徴表現を生成するための,新しい畳み込み型オートエンコーダアーキテクチャを提案する。
クラス固有のデータは、低次元の線形部分空間に存在し、ノイズがあり、分離が不十分である、すなわち、2つのクラス間の部分空間距離(主角)は非常に低い、と仮定される。
提案ネットワークは,エンコーダとデコーダネットワークの間に挟まれた新しいクラス固有自己表現層(CSSE)を用いて,適切に分離されたクラスワイド部分空間表現を生成する。
エンコーダ/デコーダと共にCSSE層は、入力空間よりも最小の主角を持つ特徴空間のサブスペースにデータが配置されるように訓練される。
提案手法の有効性を実証するため,最先端機械学習データセットについていくつかの実験を行い,既存の部分空間に基づく変換学習法に対して,分類性能の大幅な改善が見られた。
関連論文リスト
- Subspace Prototype Guidance for Mitigating Class Imbalance in Point Cloud Semantic Segmentation [23.250178208474928]
本稿では,サブスペースのプロトタイプガイダンス(textbfSPG)を用いて,セグメンテーションネットワークのトレーニングを指導する手法を提案する。
提案手法はセグメンテーション性能を大幅に向上し,最先端の手法を超越する。
論文 参考訳(メタデータ) (2024-08-20T04:31:46Z) - Feature Selection using Sparse Adaptive Bottleneck Centroid-Encoder [1.2487990897680423]
2つ以上のクラスで識別される特徴を決定するために,新しい非線形モデル SABCE (Sparse Adaptive Bottleneckid-Encoder) を導入する。
このアルゴリズムは、高次元生物学的、画像、音声、加速度センサデータなど、様々な実世界のデータセットに適用される。
論文 参考訳(メタデータ) (2023-06-07T21:37:21Z) - Learning Structure Aware Deep Spectral Embedding [11.509692423756448]
本稿では, スペクトル埋込み損失と構造保存損失を組み合わせ, 深層スペクトルの埋込みを考慮した新しい構造解析手法を提案する。
両タイプの情報を同時に符号化し,構造認識型スペクトル埋め込みを生成するディープニューラルネットワークアーキテクチャを提案する。
提案アルゴリズムは,公開されている6つの実世界のデータセットを用いて評価する。
論文 参考訳(メタデータ) (2023-05-14T18:18:05Z) - Closed-Loop Data Transcription to an LDR via Minimaxing Rate Reduction [27.020835928724775]
本研究では,実世界のデータセットに対する明示的な生成モデル学習のための新しい計算フレームワークを提案する。
特に,多次元多次元データ分布と特徴空間における線形識別表現(LDR)の間の閉ループ転写を学習することを提案する。
多くのベンチマークデータセットに対する実験は、この新しいクローズドループの定式化の可能性を示している。
論文 参考訳(メタデータ) (2021-11-12T10:06:08Z) - Subspace Representation Learning for Few-shot Image Classification [105.7788602565317]
少数の画像分類タスクに対処するサブスペース表現学習フレームワークを提案する。
画像を表すためにローカルCNN機能空間のサブスペースを利用し、重み付きサブスペース距離(WSD)に従って2つの画像間の類似度を測定します。
論文 参考訳(メタデータ) (2021-05-02T02:29:32Z) - Joint and Progressive Subspace Analysis (JPSA) with Spatial-Spectral
Manifold Alignment for Semi-Supervised Hyperspectral Dimensionality Reduction [48.73525876467408]
本稿では,超スペクトル部分空間解析のための新しい手法を提案する。
この手法はジョイント・アンド・プログレッシブ・サブスペース分析(JPSA)と呼ばれる。
2つの広帯域超スペクトルデータセットに対して提案したJPSAの優位性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-09-21T16:29:59Z) - OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer [77.90012156266324]
本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-20T02:41:01Z) - Robust Large-Margin Learning in Hyperbolic Space [64.42251583239347]
ユークリッド空間ではなく双曲型で分類器を学ぶための最初の理論的保証を示す。
本研究では, 対向例の慎重な注入に頼って, 大面積超平面を効率よく学習するアルゴリズムを提案する。
双曲空間によく埋め込まれる階層的データに対して、低埋め込み次元は優れた保証を保証することを証明している。
論文 参考訳(メタデータ) (2020-04-11T19:11:30Z) - Ellipsoidal Subspace Support Vector Data Description [98.67884574313292]
一クラス分類に最適化された低次元空間にデータを変換する新しい手法を提案する。
提案手法の線形および非線形の定式化について述べる。
提案手法は,最近提案されたサブスペースサポートベクトルデータ記述よりもはるかに高速に収束する。
論文 参考訳(メタデータ) (2020-03-20T21:31:03Z) - Multi-Level Representation Learning for Deep Subspace Clustering [10.506584969668792]
本稿では、畳み込みオートエンコーダを用いた新しい深部部分空間クラスタリング手法を提案する。
4つの実世界のデータセットに対する実験により、我々の手法は、ほとんどのサブスペースクラスタリング問題における最先端の手法よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2020-01-19T23:29:50Z) - Deep Metric Structured Learning For Facial Expression Recognition [58.7528672474537]
本研究では,よく定義された構造を持つ組込み部分空間を作成するための深度計量学習モデルを提案する。
これらの部分空間を作成するために、出力空間上にガウス構造を課す新しい損失関数が導入された。
学習した埋め込みは,表現検索や感情認識など,様々な応用に有効であることが実験的に実証された。
論文 参考訳(メタデータ) (2020-01-18T06:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。