論文の概要: Supervised Dimensionality Reduction and Classification with
Convolutional Autoencoders
- arxiv url: http://arxiv.org/abs/2208.12152v1
- Date: Thu, 25 Aug 2022 15:18:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:00:03.617637
- Title: Supervised Dimensionality Reduction and Classification with
Convolutional Autoencoders
- Title(参考訳): 畳み込みオートエンコーダによる次元の削減と分類
- Authors: Ioannis A. Nellas, Sotiris K. Tasoulis, Vassilis P. Plagianakos and
Spiros V. Georgakopoulos
- Abstract要約: 畳み込みオートエンコーダを組み合わせることで、教師付き次元の減少と予測を同時に生成する。
結果として得られるラテント空間は、伝統的な解釈可能な分類アルゴリズムを改善するために利用することができる。
提案手法は, 生成した潜在空間を通してのデータ構造だけでなく, 分類行動についても, 高度な説明可能性を導入している。
- 参考スコア(独自算出の注目度): 1.1164202369517053
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The joint optimization of the reconstruction and classification error is a
hard non convex problem, especially when a non linear mapping is utilized. In
order to overcome this obstacle, a novel optimization strategy is proposed, in
which a Convolutional Autoencoder for dimensionality reduction and a classifier
composed by a Fully Connected Network, are combined to simultaneously produce
supervised dimensionality reduction and predictions. It turned out that this
methodology can also be greatly beneficial in enforcing explainability of deep
learning architectures. Additionally, the resulting Latent Space, optimized for
the classification task, can be utilized to improve traditional, interpretable
classification algorithms. The experimental results, showed that the proposed
methodology achieved competitive results against the state of the art deep
learning methods, while being much more efficient in terms of parameter count.
Finally, it was empirically justified that the proposed methodology introduces
advanced explainability regarding, not only the data structure through the
produced latent space, but also about the classification behaviour.
- Abstract(参考訳): 再構成と分類誤差の合同最適化は、特に非線型写像を利用する場合、困難な非凸問題である。
この障害を克服するために、次元低減のための畳み込みオートエンコーダと、完全連結ネットワークからなる分類器とを組み合わせることで、教師付き次元低減と予測を同時に行う新しい最適化戦略を提案する。
この方法論は、ディープラーニングアーキテクチャの説明可能性を高める上で、非常に有益であることが判明した。
さらに、結果として生じる潜在空間は分類タスクに最適化され、従来の解釈可能な分類アルゴリズムを改善するのに利用できる。
実験の結果,提案手法は,パラメータ数の観点からははるかに効率的でありながら,最先端の深層学習手法と競合する結果を得た。
最後に,提案手法が,生成した潜在空間を通したデータ構造だけでなく,分類行動についても,高度な説明可能性を導入することを実証的に証明した。
関連論文リスト
- Enabling Tensor Decomposition for Time-Series Classification via A Simple Pseudo-Laplacian Contrast [26.28414569796961]
本稿では, Pseudo Laplacian Contrast (PLC) テンソル分解フレームワークを提案する。
データ拡張とラプラシアンのクロスビューを統合し、クラス認識表現の抽出を可能にする。
様々なデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-23T16:48:13Z) - Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - Nonconvex Federated Learning on Compact Smooth Submanifolds With Heterogeneous Data [23.661713049508375]
本稿では,クライアントの設定においてサブマニフォールド上で学習するアルゴリズムを提案する。
提案アルゴリズムは,新しい解析手法を用いて一階最適解の近傍に部分収束することを示す。
論文 参考訳(メタデータ) (2024-06-12T17:53:28Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Topologically Regularized Data Embeddings [15.001598256750619]
低次元埋め込みにトポロジ的事前知識を組み込むための代数的トポロジに基づく汎用的アプローチを導入する。
正規化器としてそのような位相損失関数を用いて埋め込み損失を共同最適化すると、局所的な近似だけでなく所望の位相構造も反映する埋め込みが得られることを示す。
線形および非線形次元削減法とグラフ埋め込み法を組み合わせた計算効率,堅牢性,汎用性に関する提案手法を実験的に評価した。
論文 参考訳(メタデータ) (2023-01-09T13:49:47Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Gradient-Based Learning of Discrete Structured Measurement Operators for
Signal Recovery [16.740247586153085]
本稿では、勾配に基づく学習を利用して離散最適化問題を解く方法について述べる。
GLODISMO (Gradient-based Learning of DIscrete Structured Measurement Operators) によるアプローチの定式化
いくつかの信号回復アプリケーションにおいて,GLODISMOの性能と柔軟性を実証的に示す。
論文 参考訳(メタデータ) (2022-02-07T18:27:08Z) - Unsupervised feature selection via self-paced learning and low-redundant
regularization [6.083524716031565]
自己評価学習とサブスペース学習の枠組みを統合することにより,教師なしの特徴選択を提案する。
この手法の収束性は理論的および実験的に証明される。
実験の結果,提案手法はクラスタリング法の性能を向上し,他の比較アルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-12-14T08:28:19Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - Discretization-Aware Architecture Search [81.35557425784026]
本稿では,離散化対応アーキテクチャサーチ(DAtextsuperscript2S)を提案する。
中心となる考え方は、超ネットワークを所望のトポロジの構成に向けることであり、離散化による精度損失がほとんど軽減される。
標準画像分類ベンチマークの実験は、我々のアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2020-07-07T01:18:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。