論文の概要: Variational Autoencoder Kernel Interpretation and Selection for
Classification
- arxiv url: http://arxiv.org/abs/2209.04715v1
- Date: Sat, 10 Sep 2022 17:22:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 12:26:31.408360
- Title: Variational Autoencoder Kernel Interpretation and Selection for
Classification
- Title(参考訳): 変分オートエンコーダカーネル解釈と分類のための選択
- Authors: F\'abio Mendon\c{c}a, Sheikh Shanawaz Mostafa, Fernando Morgado-Dias,
and Antonio G. Ravelo-Garc\'ia
- Abstract要約: 本研究では,変分オートエンコーダの畳み込みエンコーダによって生成された特徴に基づく確率的分類器のカーネル選択手法を提案する。
提案した実装では、各カーネルに対して各分散が生成されるため、各潜伏変数を最終エンコーダの畳み込み層の単一カーネルに関連付けられた分布からサンプリングした。
サンプル化された潜伏変数で関連する機能を選択することで、カーネルの選択を実行し、非形式的機能とカーネルをフィルタリングすることができる。
- 参考スコア(独自算出の注目度): 59.30734371401315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposed kernel selection approaches for probabilistic classifiers
based on features produced by the convolutional encoder of a variational
autoencoder. Particularly, the developed methodologies allow the selection of
the most relevant subset of latent variables. In the proposed implementation,
each latent variable was sampled from the distribution associated with a single
kernel of the last encoder's convolution layer, as an individual distribution
was created for each kernel. Therefore, choosing relevant features on the
sampled latent variables makes it possible to perform kernel selection,
filtering the uninformative features and kernels. Such leads to a reduction in
the number of the model's parameters. Both wrapper and filter methods were
evaluated for feature selection. The second was of particular relevance as it
is based only on the distributions of the kernels. It was assessed by measuring
the Kullback-Leibler divergence between all distributions, hypothesizing that
the kernels whose distributions are more similar can be discarded. This
hypothesis was confirmed since it was observed that the most similar kernels do
not convey relevant information and can be removed. As a result, the proposed
methodology is suitable for developing applications for resource-constrained
devices.
- Abstract(参考訳): 本研究では,変分オートエンコーダの畳み込みエンコーダが生成する特徴に基づく確率的分類器のカーネル選択手法を提案する。
特に、発達した方法論は、潜在変数の最も関連する部分集合の選択を可能にする。
提案した実装では、各カーネルに対して各分散が生成されるため、各潜伏変数を最終エンコーダの畳み込み層の単一カーネルに関連付けられた分布からサンプリングした。
したがって、サンプルされた潜在変数の関連機能を選択することで、カーネル選択を実行し、不均一な特徴とカーネルをフィルタリングすることができる。
これにより、モデルのパラメータの数を減らすことができる。
特徴選択のためにラッパー法とフィルタ法の両方を評価した。
2つ目は、カーネルの分布のみに基づいているため、特に関連性があった。
すべての分布間のKulback-Leiblerのばらつきを測定し、分布がより類似したカーネルを破棄できると仮定して評価した。
この仮説は、最も類似したカーネルが関連情報を伝達せず、取り除くことができることから確認された。
その結果,提案手法は資源制約型デバイスの開発に適している。
関連論文リスト
- Learning to Embed Distributions via Maximum Kernel Entropy [0.0]
固有データは、確率分布の集合からのサンプルと見なすことができる。
カーネルメソッドは、これらの分布を分類する学習の自然なアプローチとして現れてきた。
データ依存分散カーネルの教師なし学習のための新しい目的を提案する。
論文 参考訳(メタデータ) (2024-08-01T13:34:19Z) - Optimal Kernel Choice for Score Function-based Causal Discovery [92.65034439889872]
本稿では,データに最も適合する最適なカーネルを自動的に選択する,一般化スコア関数内のカーネル選択手法を提案する。
合成データと実世界のベンチマークの両方で実験を行い,提案手法がカーネル選択法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-14T09:32:20Z) - Self-supervised learning with rotation-invariant kernels [4.059849656394191]
組込み分布を超球面上の均一分布に近接させる汎用正規化損失を設計するための汎用カーネルフレームワークを提案する。
我々のフレームワークは、ハイパースフィア上で定義された回転不変カーネル(ドット生成カーネルとも呼ばれる)を使用する。
本実験は, 回転不変カーネルを用いることで, 最先端の手法と比較して, 競合する結果が得られることを示した。
論文 参考訳(メタデータ) (2022-07-28T08:06:24Z) - Generalized Reference Kernel for One-class Classification [100.53532594448048]
我々は、参照ベクトルの集合を用いて、元のベースカーネルを改善するために、新しい一般化された参照カーネルを定式化する。
解析および実験結果から、新しい定式化は、カーネル自体に付加的な情報を導入し、ランクを調整し、調整するためのアプローチを提供することが示された。
論文 参考訳(メタデータ) (2022-05-01T18:36:55Z) - S-Rocket: Selective Random Convolution Kernels for Time Series
Classification [36.9596657353794]
ランダム畳み込みカーネル変換(Rocket)は、時系列特徴抽出のための高速で効率的で斬新なアプローチである。
計算複雑性を減らし、Rocketの推論を加速するためには、最も重要なカーネルを選択し、冗長で重要でないカーネルを刈り取る必要がある。
最重要なカーネルを選択するために、集団ベースのアプローチが提案されている。
論文 参考訳(メタデータ) (2022-03-07T15:02:12Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Taming Nonconvexity in Kernel Feature Selection---Favorable Properties
of the Laplace Kernel [77.73399781313893]
カーネルベースの特徴選択の客観的機能を確立することが課題である。
非言語最適化に利用可能な勾配に基づくアルゴリズムは、局所ミニマへの収束を保証できるだけである。
論文 参考訳(メタデータ) (2021-06-17T11:05:48Z) - Towards Unbiased Random Features with Lower Variance For Stationary
Indefinite Kernels [26.57122949130266]
本アルゴリズムは,既存のカーネル近似法と比較して,より低い分散と近似誤差を達成する。
もともと選択されたカーネルの近似性が向上し、分類精度と回帰能力が向上する。
論文 参考訳(メタデータ) (2021-04-13T13:56:50Z) - Learning Deep Kernels for Non-Parametric Two-Sample Tests [50.92621794426821]
2組のサンプルが同じ分布から引き出されるかどうかを判定するカーネルベースの2サンプルテストのクラスを提案する。
私たちのテストは、テストパワーを最大化するためにトレーニングされたディープニューラルネットワークによってパラメータ化されたカーネルから構築されます。
論文 参考訳(メタデータ) (2020-02-21T03:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。