論文の概要: Incomplete Gamma Kernels: Generalizing Locally Optimal Projection Operators
- arxiv url: http://arxiv.org/abs/2205.01087v2
- Date: Mon, 28 Oct 2024 12:50:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 20:19:32.798647
- Title: Incomplete Gamma Kernels: Generalizing Locally Optimal Projection Operators
- Title(参考訳): 不完全ガンマカーネル:局所最適射影作用素の一般化
- Authors: Patrick Stotko, Michael Weinmann, Reinhard Klein,
- Abstract要約: 局所最適射影(LOP)作用素の一般化である不完全ガンマ核を提案する。
改良されたLOP密度重み付けスキームから、新しいロバストな損失関数セットの定義まで、いくつかの応用について説明する。
我々は、新しいカーネルをニューラルネットワークにプリエントとして組み込むことができることを示した。
- 参考スコア(独自算出の注目度): 7.47193191854175
- License:
- Abstract: We present incomplete gamma kernels, a generalization of Locally Optimal Projection (LOP) operators. In particular, we reveal the relation of the classical localized $ L_1 $ estimator, used in the LOP operator for point cloud denoising, to the common Mean Shift framework via a novel kernel. Furthermore, we generalize this result to a whole family of kernels that are built upon the incomplete gamma function and each represents a localized $ L_p $ estimator. By deriving various properties of the kernel family concerning distributional, Mean Shift induced, and other aspects such as strict positive definiteness, we obtain a deeper understanding of the operator's projection behavior. From these theoretical insights, we illustrate several applications ranging from an improved Weighted LOP (WLOP) density weighting scheme and a more accurate Continuous LOP (CLOP) kernel approximation to the definition of a novel set of robust loss functions. These incomplete gamma losses include the Gaussian and LOP loss as special cases and can be applied to various tasks including normal filtering. Furthermore, we show that the novel kernels can be included as priors into neural networks. We demonstrate the effects of each application in a range of quantitative and qualitative experiments that highlight the benefits induced by our modifications.
- Abstract(参考訳): 局所最適射影(LOP)作用素の一般化である不完全ガンマ核を提案する。
特に、LOP演算子でポイントクラウドをデノナイズするために使われる古典的ローカライズされた $ L_1 $ estimator と、新しいカーネルを経由した共通平均シフトフレームワークとの関係を明らかにする。
さらに、この結果は不完全ガンマ関数上に構築され、それぞれが局所化された$ L_p $ estimatorを表すカーネルの族全体に一般化する。
分布、平均シフト、厳密な正の定性といった他の側面に関するカーネル族の様々な性質を導出することにより、作用素の射影挙動をより深く理解することができる。
これらの理論的な知見から、改良された軽量LOP(WLOP)密度重み付けスキームや、より正確な連続LOP(CLOP)カーネル近似から、新しいロバストな損失関数セットの定義まで、いくつかの応用について説明する。
これらの不完全なガンマ損失には、ガウス損失とLOP損失が含まれ、通常のフィルタリングを含む様々なタスクに適用できる。
さらに,新しいカーネルをニューラルネットワークにプリエントとして組み込むことが可能であることを示す。
修正によって引き起こされるメリットを浮き彫りにする定量的かつ質的な実験において、各アプリケーションの効果を実証する。
関連論文リスト
- Generalization Bounds and Model Complexity for Kolmogorov-Arnold Networks [1.5850926890180461]
Kolmogorov-Arnold Network (KAN)は、Liuらによって最近提案されたネットワーク構造である。
活性化関数を備えたカンの一般化境界を確立することにより、カンの厳密な理論的解析を提供する。
論文 参考訳(メタデータ) (2024-10-10T15:23:21Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Generalization error of spectral algorithms [17.93452027304691]
我々は、$textitspectralアルゴリズムのファミリによるカーネルのトレーニングを、プロファイル$h(lambda)$で指定する。
一般化誤差は2つのデータモデルに対する学習プロファイル$h(lambda)$の関数として導出する。
論文 参考訳(メタデータ) (2024-03-18T11:52:33Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Meta-learning Feature Representations for Adaptive Gaussian Processes
via Implicit Differentiation [1.5293427903448025]
メタラーニングと従来の学習の補間により深層カーネルを学習するための一般的なフレームワークを提案する。
ADKFは完全に一般的な方法であるが、薬物発見問題に特に適していると論じる。
論文 参考訳(メタデータ) (2022-05-05T15:26:53Z) - Non-Gaussian Gaussian Processes for Few-Shot Regression [71.33730039795921]
乱変数ベクトルの各成分上で動作し,パラメータを全て共有する可逆なODEベースのマッピングを提案する。
NGGPは、様々なベンチマークとアプリケーションに対する競合する最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-10-26T10:45:25Z) - Generalization Properties of Stochastic Optimizers via Trajectory
Analysis [48.38493838310503]
本稿では,Fernique-Talagrand関数と局所パワーローの両方が一般化性能の予測可能であることを示す。
本稿では,Fernique-Talagrand関数と局所パワーローの両方が一般化性能の予測可能であることを示す。
論文 参考訳(メタデータ) (2021-08-02T10:58:32Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。