論文の概要: An Additive Autoencoder for Dimension Estimation
- arxiv url: http://arxiv.org/abs/2210.06773v1
- Date: Thu, 13 Oct 2022 06:27:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 14:40:14.218584
- Title: An Additive Autoencoder for Dimension Estimation
- Title(参考訳): 次元推定のための加算オートエンコーダ
- Authors: Tommi K\"arkk\"ainen and Jan H\"anninen
- Abstract要約: この形式のオートエンコーダは、低いオートエンコードエラーでデータセットの本質的な次元を識別することができる。
より深いネットワーク構造は、固有次元の同定中に低い自己エンコード誤差を得る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An additive autoencoder for dimension reduction, which is composed of a
serially performed bias estimation, linear trend estimation, and nonlinear
residual estimation, is proposed and analyzed. Computational experiments
confirm that an autoencoder of this form, with only a shallow network to
encapsulate the nonlinear behavior, is able to identify an intrinsic dimension
of a dataset with a low autoencoding error. This observation leads to an
investigation in which shallow and deep network structures, and how they are
trained, are compared. We conclude that the deeper network structures obtain
lower autoencoding errors during the identification of the intrinsic dimension.
However, the detected dimension does not change compared to a shallow network.
- Abstract(参考訳): 連続したバイアス推定、線形トレンド推定、非線形残差推定からなる次元減少のための付加的オートエンコーダを提案し、解析した。
計算実験により、非線形動作をカプセル化する浅いネットワークのみを持つこの形式のオートエンコーダが、低いオートエンコーディングエラーでデータセットの固有次元を識別できることが確認された。
この観察は、浅いネットワーク構造と深いネットワーク構造がどのように訓練されるかについての調査に繋がる。
その結果,より深いネットワーク構造は固有次元の同定においてより低い自己符号化誤差が得られることがわかった。
しかし、検出された寸法は浅いネットワークに比べて変化しない。
関連論文リスト
- Semi-Supervised Manifold Learning with Complexity Decoupled Chart
Autoencoders [65.2511270059236]
本研究は、クラスラベルなどの半教師付き情報を付加できる非対称符号化復号プロセスを備えたチャートオートエンコーダを導入する。
データ多様体の内在次元に依存するネットワークの理論的近似力について論じる。
論文 参考訳(メタデータ) (2022-08-22T19:58:03Z) - Intrinsic dimension estimation for discrete metrics [65.5438227932088]
本稿では,離散空間に埋め込まれたデータセットの内在次元(ID)を推定するアルゴリズムを提案する。
我々は,その精度をベンチマークデータセットで示すとともに,種鑑定のためのメダゲノミクスデータセットの分析に応用する。
このことは、列の空間の高次元性にもかかわらず、蒸発圧が低次元多様体に作用することを示唆している。
論文 参考訳(メタデータ) (2022-07-20T06:38:36Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [55.52743265122446]
ディープオートエンコーダは視覚領域における異常検出のタスクに使われてきた。
我々は、訓練中に識別情報を使用することが可能な自己指導型学習体制を適用することで、この問題に対処する。
MVTec ADデータセットを用いた実験では,高い検出性能と局所化性能を示した。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Representation Learning for Content-Sensitive Anomaly Detection in
Industrial Networks [0.0]
本論文では、生のネットワークトラフィックの時空間的側面を教師なしかつプロトコルに依存しない方法で学習する枠組みを提案する。
学習された表現は、その後の異常検出の結果に与える影響を測定するために使用される。
論文 参考訳(メタデータ) (2022-04-20T09:22:41Z) - Residual-Guided Learning Representation for Self-Supervised Monocular
Depth Estimation [33.18012120187014]
光度整合損失は、自己教師付き単眼深度推定によく用いられる代表的目的関数の1つである。
近年の自己教師型学習手法は,オートエンコーダから明示的に学習した特徴表現を活用することでこの問題に対処している。
自己符号化された特徴の識別性を伝達することにより、深度推定ネットワークが識別特徴を埋め込むことができる残留誘導損失を提案する。
論文 参考訳(メタデータ) (2021-11-08T07:44:31Z) - Probabilistic Autoencoder using Fisher Information [0.0]
この作業では、Autoencoderアーキテクチャの拡張であるFisherNetが導入されている。
このアーキテクチャでは、潜時空間の不確実性はエンコーダの付加情報チャネルを使用して生成されるのではなく、フィッシャー情報計量を用いてデコーダから導出される。
FisherNetは、同等のVAEよりも正確なデータ再構成を実現しており、学習性能も、潜在空間次元の数に比例して向上していることが実験的に証明できる。
論文 参考訳(メタデータ) (2021-10-28T08:33:24Z) - On the Regularization of Autoencoders [14.46779433267854]
教師なし設定自体が、学習されたオートエンコーダのモデル容量の大幅な削減という、強い正規化を誘導することを示す。
深部非線形オートエンコーダは、両方のモデルが最終層に同じ次元を持つ場合、線形オートエンコーダよりも正確にトレーニングデータに適合できない。
3つのよく知られたデータセットに対する実験において、すべてのモデルランクに対して正確な近似であることを示す。
論文 参考訳(メタデータ) (2021-10-21T18:28:25Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Identifying and interpreting tuning dimensions in deep networks [83.59965686504822]
チューニングディメンションは、ニューロン群の活性化分散の大部分を占める刺激特性である。
この研究は、ディープ・ネットワークにおける「チューニング・ディメンション」を特定し解釈するための教師なしのフレームワークに貢献している。
論文 参考訳(メタデータ) (2020-11-05T21:26:03Z) - From deep to Shallow: Equivalent Forms of Deep Networks in Reproducing
Kernel Krein Space and Indefinite Support Vector Machines [63.011641517977644]
ディープネットワークを等価な(不確定な)カーネルマシンに変換します。
次に、この変換がキャパシティ制御および一様収束に与える影響について検討する。
最後に、平坦表現の空間性について解析し、平坦な重みが(効果的に) 0p1 で正規化された Lp-"ノルム" であることが示される。
論文 参考訳(メタデータ) (2020-07-15T03:21:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。