論文の概要: A Self-Encoder for Learning Nearest Neighbors
- arxiv url: http://arxiv.org/abs/2306.14257v1
- Date: Sun, 25 Jun 2023 14:30:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 16:04:50.695474
- Title: A Self-Encoder for Learning Nearest Neighbors
- Title(参考訳): 近親者学習のための自己エンコーダ
- Authors: Armand Boschin and Thomas Bonald and Marc Jeanmougin
- Abstract要約: 自己エンコーダは、データサンプルを埋め込み空間に分散して、互いに線形に分離できるように学習する。
通常の隣人とは異なり、このデータの符号化による予測は、あらゆる機能のスケーリングに不変である。
- 参考スコア(独自算出の注目度): 5.297261090056809
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the self-encoder, a neural network trained to guess the identity
of each data sample. Despite its simplicity, it learns a very useful
representation of data, in a self-supervised way. Specifically, the
self-encoder learns to distribute the data samples in the embedding space so
that they are linearly separable from one another. This induces a geometry
where two samples are close in the embedding space when they are not easy to
differentiate. The self-encoder can then be combined with a nearest-neighbor
classifier or regressor for any subsequent supervised task. Unlike regular
nearest neighbors, the predictions resulting from this encoding of data are
invariant to any scaling of features, making any preprocessing like min-max
scaling not necessary. The experiments show the efficiency of the approach,
especially on heterogeneous data mixing numerical features and categorical
features.
- Abstract(参考訳): 本稿では,各データサンプルのアイデンティティを推定するニューラルネットワークであるself-encoderを提案する。
その単純さにもかかわらず、自己管理的な方法で、非常に有用なデータの表現を学ぶ。
具体的には、自己エンコーダはデータサンプルを埋め込み空間に分散させることを学習し、それらを線形に分離する。
これにより、2つのサンプルが微分が容易でないときに埋め込み空間に近くなる幾何学が引き起こされる。
自己エンコーダは、後続の教師付きタスクのために最寄りのneighbor分類器またはレグレッサーと組み合わせることができる。
このデータのエンコーディングによって生じる予測は、通常のニアスとは異なり、機能のスケーリングに不変であり、min-maxスケーリングのようなプリプロセッシングは不要である。
実験では, 数値的特徴とカテゴリー的特徴を混合した異種データにおいて, アプローチの効率性を示す。
関連論文リスト
- Symmetric Equilibrium Learning of VAEs [56.56929742714685]
可変オートエンコーダ(VAE)をデコーダ-エンコーダペアとみなし,データ空間内の分布を潜在空間内の分布にマッピングする。
本研究では,エンコーダとデコーダに対して対称なナッシュ均衡学習手法を提案し,データと潜伏分布の両方がサンプリングによってのみアクセス可能な状況下でのVAEの学習を可能にする。
論文 参考訳(メタデータ) (2023-07-19T10:27:34Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Semi-Supervised Manifold Learning with Complexity Decoupled Chart Autoencoders [45.29194877564103]
本研究は、クラスラベルなどの半教師付き情報を付加できる非対称符号化復号プロセスを備えたチャートオートエンコーダを導入する。
このようなネットワークの近似力を議論し、周囲空間の次元ではなく、本質的にデータ多様体の内在次元に依存する境界を導出する。
論文 参考訳(メタデータ) (2022-08-22T19:58:03Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z) - Learning from Incomplete Features by Simultaneous Training of Neural
Networks and Sparse Coding [24.3769047873156]
本稿では,不完全な特徴を持つデータセット上で分類器を訓練する問題に対処する。
私たちは、各データインスタンスで異なる機能のサブセット(ランダムまたは構造化)が利用できると仮定します。
新しい教師付き学習法が開発され、サンプルあたりの機能のサブセットのみを使用して、一般的な分類器を訓練する。
論文 参考訳(メタデータ) (2020-11-28T02:20:39Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Gradient Origin Networks [8.952627620898074]
本稿では,エンコーダを使わずに潜在表現を素早く学習できる新しい生成モデルを提案する。
実験により,提案手法は自己エンコーダよりも高速に収束し,パラメータの半分を必要としながら再構成誤差が著しく低いことがわかった。
論文 参考訳(メタデータ) (2020-07-06T15:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。