論文の概要: An Additive Autoencoder for Dimension Estimation
- arxiv url: http://arxiv.org/abs/2210.06773v1
- Date: Thu, 13 Oct 2022 06:27:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 14:40:14.218584
- Title: An Additive Autoencoder for Dimension Estimation
- Title(参考訳): 次元推定のための加算オートエンコーダ
- Authors: Tommi K\"arkk\"ainen and Jan H\"anninen
- Abstract要約: この形式のオートエンコーダは、低いオートエンコードエラーでデータセットの本質的な次元を識別することができる。
より深いネットワーク構造は、固有次元の同定中に低い自己エンコード誤差を得る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An additive autoencoder for dimension reduction, which is composed of a
serially performed bias estimation, linear trend estimation, and nonlinear
residual estimation, is proposed and analyzed. Computational experiments
confirm that an autoencoder of this form, with only a shallow network to
encapsulate the nonlinear behavior, is able to identify an intrinsic dimension
of a dataset with a low autoencoding error. This observation leads to an
investigation in which shallow and deep network structures, and how they are
trained, are compared. We conclude that the deeper network structures obtain
lower autoencoding errors during the identification of the intrinsic dimension.
However, the detected dimension does not change compared to a shallow network.
- Abstract(参考訳): 連続したバイアス推定、線形トレンド推定、非線形残差推定からなる次元減少のための付加的オートエンコーダを提案し、解析した。
計算実験により、非線形動作をカプセル化する浅いネットワークのみを持つこの形式のオートエンコーダが、低いオートエンコーディングエラーでデータセットの固有次元を識別できることが確認された。
この観察は、浅いネットワーク構造と深いネットワーク構造がどのように訓練されるかについての調査に繋がる。
その結果,より深いネットワーク構造は固有次元の同定においてより低い自己符号化誤差が得られることがわかった。
しかし、検出された寸法は浅いネットワークに比べて変化しない。
関連論文リスト
- SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - Geometric Autoencoders -- What You See is What You Decode [12.139222986297263]
本稿では,デコーダ上での微分幾何学的視点を提案し,埋め込みの歪みに対する洞察力のある診断と,そのような歪みを緩和する新たな正規化器を提案する。
我々のGeometric Autoencoder'は埋め込みを急激に伸ばすのを避けるので、可視化はデータ構造をより忠実に捉えます。
論文 参考訳(メタデータ) (2023-06-30T13:24:31Z) - Intrinsic dimension estimation for discrete metrics [65.5438227932088]
本稿では,離散空間に埋め込まれたデータセットの内在次元(ID)を推定するアルゴリズムを提案する。
我々は,その精度をベンチマークデータセットで示すとともに,種鑑定のためのメダゲノミクスデータセットの分析に応用する。
このことは、列の空間の高次元性にもかかわらず、蒸発圧が低次元多様体に作用することを示唆している。
論文 参考訳(メタデータ) (2022-07-20T06:38:36Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Representation Learning for Content-Sensitive Anomaly Detection in
Industrial Networks [0.0]
本論文では、生のネットワークトラフィックの時空間的側面を教師なしかつプロトコルに依存しない方法で学習する枠組みを提案する。
学習された表現は、その後の異常検出の結果に与える影響を測定するために使用される。
論文 参考訳(メタデータ) (2022-04-20T09:22:41Z) - Residual-Guided Learning Representation for Self-Supervised Monocular
Depth Estimation [33.18012120187014]
光度整合損失は、自己教師付き単眼深度推定によく用いられる代表的目的関数の1つである。
近年の自己教師型学習手法は,オートエンコーダから明示的に学習した特徴表現を活用することでこの問題に対処している。
自己符号化された特徴の識別性を伝達することにより、深度推定ネットワークが識別特徴を埋め込むことができる残留誘導損失を提案する。
論文 参考訳(メタデータ) (2021-11-08T07:44:31Z) - Probabilistic Autoencoder using Fisher Information [0.0]
この作業では、Autoencoderアーキテクチャの拡張であるFisherNetが導入されている。
このアーキテクチャでは、潜時空間の不確実性はエンコーダの付加情報チャネルを使用して生成されるのではなく、フィッシャー情報計量を用いてデコーダから導出される。
FisherNetは、同等のVAEよりも正確なデータ再構成を実現しており、学習性能も、潜在空間次元の数に比例して向上していることが実験的に証明できる。
論文 参考訳(メタデータ) (2021-10-28T08:33:24Z) - On the Regularization of Autoencoders [14.46779433267854]
教師なし設定自体が、学習されたオートエンコーダのモデル容量の大幅な削減という、強い正規化を誘導することを示す。
深部非線形オートエンコーダは、両方のモデルが最終層に同じ次元を持つ場合、線形オートエンコーダよりも正確にトレーニングデータに適合できない。
3つのよく知られたデータセットに対する実験において、すべてのモデルランクに対して正確な近似であることを示す。
論文 参考訳(メタデータ) (2021-10-21T18:28:25Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Identifying and interpreting tuning dimensions in deep networks [83.59965686504822]
チューニングディメンションは、ニューロン群の活性化分散の大部分を占める刺激特性である。
この研究は、ディープ・ネットワークにおける「チューニング・ディメンション」を特定し解釈するための教師なしのフレームワークに貢献している。
論文 参考訳(メタデータ) (2020-11-05T21:26:03Z) - From deep to Shallow: Equivalent Forms of Deep Networks in Reproducing
Kernel Krein Space and Indefinite Support Vector Machines [63.011641517977644]
ディープネットワークを等価な(不確定な)カーネルマシンに変換します。
次に、この変換がキャパシティ制御および一様収束に与える影響について検討する。
最後に、平坦表現の空間性について解析し、平坦な重みが(効果的に) 0p1 で正規化された Lp-"ノルム" であることが示される。
論文 参考訳(メタデータ) (2020-07-15T03:21:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。