論文の概要: Incomplete Gamma Kernels: Generalizing Locally Optimal Projection
Operators
- arxiv url: http://arxiv.org/abs/2205.01087v1
- Date: Mon, 2 May 2022 17:59:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 16:03:37.396166
- Title: Incomplete Gamma Kernels: Generalizing Locally Optimal Projection
Operators
- Title(参考訳): 不完全ガンマカーネル:局所最適射影作用素の一般化
- Authors: Patrick Stotko, Michael Weinmann, Reinhard Klein
- Abstract要約: 局所最適射影(LOP)作用素の一般化である不完全ガンマ核を提案する。
改良されたLOP密度重み付けスキームから、新しいロバストな損失関数セットの定義まで、いくつかの応用について説明する。
- 参考スコア(独自算出の注目度): 7.5155755762951895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present incomplete gamma kernels, a generalization of Locally Optimal
Projection (LOP) operators. In particular, we reveal the relation of the
classical localized $ L_1 $ estimator, used in the LOP operator for surface
reconstruction from noisy point clouds, to the common Mean Shift framework via
a novel kernel. Furthermore, we generalize this result to a whole family of
kernels that are built upon the incomplete gamma function and each represents a
localized $ L_p $ estimator. By deriving various properties of the kernel
family concerning distributional, Mean Shift induced, and other aspects such as
strict positive definiteness, we obtain a deeper understanding of the
operator's projection behavior. From these theoretical insights, we illustrate
several applications ranging from an improved Weighted LOP (WLOP) density
weighting scheme and a more accurate Continuous LOP (CLOP) kernel approximation
to the definition of a novel set of robust loss functions. These incomplete
gamma losses include the Gaussian and LOP loss as special cases and can be
applied for reconstruction tasks such as normal filtering. We demonstrate the
effects of each application in a range of quantitative and qualitative
experiments that highlight the benefits induced by our modifications.
- Abstract(参考訳): 局所最適射影(LOP)作用素の一般化である不完全ガンマ核を提案する。
特に,LOP演算子でノイズの多い点雲の表面再構成に使用される古典的局所化 $ L_1 $ estimator と,新しいカーネルによる共通平均シフトフレームワークとの関係を明らかにする。
さらに、この結果を不完全なガンマ関数上に構築されたカーネル群全体に一般化し、それぞれがローカライズされた$ l_p $ estimatorを表す。
分布、平均シフトおよび厳密な正定性などの他の側面に関するカーネルファミリーの様々な性質を導出することにより、演算子の射影挙動のより深い理解を得る。
これらの理論的な知見から、改良された重み付きlop(wlop)密度重み付けスキームとより正確な連続lop(clop)カーネル近似から新しいロバスト損失関数セットの定義まで、いくつかの応用例を示す。
これらの不完全なガンマ損失は、ガウスとロップの損失を特別な場合とし、通常のフィルタリングのような再構成タスクに適用することができる。
本研究は,各応用の効果を定量的・定性的な実験で示し,改良の効果を強調する。
関連論文リスト
- Convex Parameter Estimation of Perturbed Multivariate Generalized
Gaussian Distributions [18.95928707619676]
本稿では,MGGDパラメータの確立された特性を持つ凸定式化を提案する。
提案するフレームワークは, 精度行列, 平均, 摂動の様々な正規化を組み合わせ, 柔軟である。
実験により, 平均ベクトルパラメータに対して, 同様の性能でより正確な精度と共分散行列推定を行うことができた。
論文 参考訳(メタデータ) (2023-12-12T18:08:04Z) - Posterior Contraction Rates for Mat\'ern Gaussian Processes on
Riemannian Manifolds [51.68005047958965]
我々は,本質的なガウス過程が実際により優れた性能を発揮することを示す。
我々の研究は、データ効率の異なるレベルを区別するために、よりきめ細かい分析が必要であることを示している。
論文 参考訳(メタデータ) (2023-09-19T20:30:58Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Universal coding, intrinsic volumes, and metric complexity [3.4392739159262145]
ガウス的設定における逐次確率の割り当てについて検討し、ゴールは実数値観測の列を予測または等価に予測することである。
解析の一環として、一般集合のミニマックスについても記述し、情報理論の古典的な結果と最終的に関連づける。
論文 参考訳(メタデータ) (2023-03-13T16:54:04Z) - Meta-learning Feature Representations for Adaptive Gaussian Processes
via Implicit Differentiation [1.5293427903448025]
メタラーニングと従来の学習の補間により深層カーネルを学習するための一般的なフレームワークを提案する。
ADKFは完全に一般的な方法であるが、薬物発見問題に特に適していると論じる。
論文 参考訳(メタデータ) (2022-05-05T15:26:53Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - Gaussian Process Inference Using Mini-batch Stochastic Gradient Descent:
Convergence Guarantees and Empirical Benefits [21.353189917487512]
勾配降下(SGD)とその変種は、機械学習問題のアルゴリズムとして確立されている。
我々は、最小バッチSGDが全ログ類似損失関数の臨界点に収束することを証明して一歩前進する。
我々の理論的な保証は、核関数が指数的あるいは固有デカイを示すことを前提としている。
論文 参考訳(メタデータ) (2021-11-19T22:28:47Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Generalization Properties of Stochastic Optimizers via Trajectory
Analysis [48.38493838310503]
本稿では,Fernique-Talagrand関数と局所パワーローの両方が一般化性能の予測可能であることを示す。
本稿では,Fernique-Talagrand関数と局所パワーローの両方が一般化性能の予測可能であることを示す。
論文 参考訳(メタデータ) (2021-08-02T10:58:32Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。