論文の概要: Avoiding unwanted results in locally linear embedding: A new
understanding of regularization
- arxiv url: http://arxiv.org/abs/2108.12680v1
- Date: Sat, 28 Aug 2021 17:23:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:52:44.526218
- Title: Avoiding unwanted results in locally linear embedding: A new
understanding of regularization
- Title(参考訳): 局所線形埋め込みにおける不要な結果を避ける:正規化の新しい理解
- Authors: Liren Lin
- Abstract要約: 局所的な線形埋め込みは、正規化が使われない場合、本質的にいくつかの望ましくない結果が認められる。
これらの悪い結果はすべて、正規化を用いることで効果的に防止できることが観察された。
- 参考スコア(独自算出の注目度): 1.0152838128195465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate that locally linear embedding (LLE) inherently admits some
unwanted results when no regularization is used, even for cases in which
regularization is not supposed to be needed in the original algorithm. The
existence of one special type of result, which we call ``projection pattern'',
is mathematically proved in the situation that an exact local linear relation
is achieved in each neighborhood of the data. These special patterns as well as
some other bizarre results that may occur in more general situations are shown
by numerical examples on the Swiss roll with a hole embedded in a high
dimensional space. It is observed that all these bad results can be effectively
prevented by using regularization.
- Abstract(参考訳): 局所線形埋め込み (lle) は, 正規化が不要な場合, 元のアルゴリズムでは正規化が不要な場合においても, 本来不要な結果が認められることを実証する。
データの各近傍で正確な局所的線形関係が達成される状況において,「射影パターン」と呼ばれる特殊な結果が存在することが数学的に証明される。
これらの特別なパターンと、より一般的な状況で起こる可能性のある他の奇妙な結果は、高次元空間に穴が埋め込まれたスイスロールの数値例によって示される。
これらすべての悪い結果が、正則化を用いることで効果的に防止できることが観察される。
関連論文リスト
- Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Random Smoothing Regularization in Kernel Gradient Descent Learning [24.383121157277007]
古典的ソボレフ空間に属する幅広い基底真理関数を適応的に学習できるランダムなスムーズな正規化のための枠組みを提案する。
我々の推定器は、基礎となるデータの構造的仮定に適応し、次元の呪いを避けることができる。
論文 参考訳(メタデータ) (2023-05-05T13:37:34Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Dimension Free Generalization Bounds for Non Linear Metric Learning [61.193693608166114]
我々はスパース体制と非スパース体制という2つの体制に対して一様一般化境界を提供する。
解の異なる新しい性質を頼りにすることで、次元自由一般化保証を提供することができることを示す。
論文 参考訳(メタデータ) (2021-02-07T14:47:00Z) - Implicit Regularization in ReLU Networks with the Square Loss [56.70360094597169]
モデルパラメータの明示的な関数によって、平方損失による暗黙の正規化を特徴付けることは不可能であることを示す。
非線形予測器の暗黙的正規化を理解するためには,より一般的な枠組みが必要であることが示唆された。
論文 参考訳(メタデータ) (2020-12-09T16:48:03Z) - Failures of model-dependent generalization bounds for least-norm
interpolation [39.97534972432276]
最小ノルム線形回帰器の一般化性能に関するバウンダリを考察する。
訓練例における様々な自然な関節分布に対して、任意の有効な一般化境界は非常に緩くなければならない。
論文 参考訳(メタデータ) (2020-10-16T16:30:05Z) - Deep Weakly-supervised Anomaly Detection [118.55172352231381]
ペアワイズ関係予測ネットワーク(PReNet)は、ペアワイズ関係の特徴と異常スコアを学習する。
PReNetは、学習したペアの異常パターンに適合する見知らぬ異常を検出できる。
12の実世界のデータセットに対する実証的な結果から、PReNetは目に見えない異常や異常を検知する9つの競合する手法を著しく上回っている。
論文 参考訳(メタデータ) (2019-10-30T00:40:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。