論文の概要: Samplet basis pursuit
- arxiv url: http://arxiv.org/abs/2306.10180v1
- Date: Fri, 16 Jun 2023 21:20:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 23:55:37.982131
- Title: Samplet basis pursuit
- Title(参考訳): サンプルベース追跡
- Authors: Davide Baroli, Michael Multerer, and Helmut Harbrecht
- Abstract要約: 我々は,l1-regularizationによるサンプル座標のカーネルベース学習について検討する。
サンプルベースでスパース的に表現できる信号のクラスは、シングルスケールベースでスパース表現を示す信号のクラスよりもかなり大きい。
本稿では,複数のカーネルの辞書を用いて,ノイズデータから表面再構成や温度データの再構成を行うための数値ベンチマークと応用について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider kernel-based learning in samplet coordinates with
l1-regularization. The application of an l1-regularization term enforces
sparsity of the coefficients with respect to the samplet basis. Therefore, we
call this approach samplet basis pursuit. Samplets are wavelet-type signed
measures, which are tailored to scattered data. They provide similar properties
as wavelets in terms of localization, multiresolution analysis, and data
compression. The class of signals that can sparsely be represented in a samplet
basis is considerably larger than the class of signals which exhibit a sparse
representation in the single-scale basis. In particular, every signal that can
be represented by the superposition of only a few features of the canonical
feature map is also sparse in samplet coordinates. We propose the efficient
solution of the problem under consideration by combining soft-shrinkage with
the semi-smooth Newton method and compare the approach to the fast iterative
shrinkage thresholding algorithm. We present numerical benchmarks as well as
applications to surface reconstruction from noisy data and to the
reconstruction of temperature data using a dictionary of multiple kernels.
- Abstract(参考訳): 我々は,l1-regularizationによるサンプル座標のカーネルベース学習を検討する。
l1正規化項の適用は、サンプル基底に関して係数のスパーシティを強制する。
したがって、このアプローチをサンプルベース追跡と呼ぶ。
サンプルはウェーブレット型の符号付き測度で、散布したデータに合わせて調整される。
ローカライズ、マルチレゾリューション分析、データ圧縮といった点でウェーブレットと似た特性を持つ。
サンプルベースでスパース的に表現できる信号のクラスは、シングルスケールベースでスパース表現を示す信号のクラスよりもかなり大きい。
特に、標準的特徴写像のいくつかの特徴の重ね合わせによって表現できる全ての信号は、サンプル座標においてもスパースである。
ソフト収縮と半平滑ニュートン法を組み合わせることで検討中の問題の効率的な解法を提案し, 高速反復収縮しきい値化アルゴリズムとの比較を行った。
本稿では,複数のカーネルの辞書を用いて,ノイズデータからの表面復元や温度データの再構成を行うための数値ベンチマークを行う。
関連論文リスト
- Multiscale scattered data analysis in samplet coordinates [0.0]
グローバルにサポートされたラジアル基底関数に対するマルチスケールデータ分散スキームについて検討する。
結果の一般化されたヴァンダーモンド行列をサンプル座標で表現することを提案する。
各レベルにおける線形系の条件数は、特定のレベルとは独立に有界であることを証明する。
論文 参考訳(メタデータ) (2024-09-23T08:07:47Z) - Optimal sampling for least-squares approximation [0.8702432681310399]
ランダムサンプルから(重み付けされた)最小二乗近似の解析において、クリスティーフェル関数を重要な量として導入する。
ほぼ最適なサンプル複雑性を持つサンプリング戦略を構築するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2024-09-04T00:06:23Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Subspace clustering in high-dimensions: Phase transitions \&
Statistical-to-Computational gap [24.073221004661427]
部分空間クラスタリングを研究するための単純なモデルは、高次元の$k$-ガウス混合モデルである。
広帯域な高次元状態における統計的に最適な再構成誤差を正確に評価する。
論文 参考訳(メタデータ) (2022-05-26T17:47:35Z) - Super-resolution GANs of randomly-seeded fields [68.8204255655161]
ランダムスパースセンサからフィールド量の推定を行うための,GAN(Super- resolution Generative Adversarial Network)フレームワークを提案する。
このアルゴリズムはランダムサンプリングを利用して、高解像度の基底分布の不完全ビューを提供する。
提案手法は, 流体流動シミュレーション, 海洋表面温度分布測定, 粒子画像速度測定データの合成データベースを用いて検証した。
論文 参考訳(メタデータ) (2022-02-23T18:57:53Z) - Samplets: A new paradigm for data compression [0.0]
本稿では,Tausch-Whiteウェーブレットの構成をデータ領域に転送することで,新しいサンプルレットの概念を導入する。
このようにして、データ圧縮、特異点の検出、適応性を可能にする離散データのマルチレベル表現を得る。
論文 参考訳(メタデータ) (2021-07-07T16:25:12Z) - Towards Sample-Optimal Compressive Phase Retrieval with Sparse and
Generative Priors [59.33977545294148]
O(k log L)$サンプルは振幅に基づく経験損失関数を最小化する任意のベクトルに信号が近いことを保証するのに十分であることを示す。
この結果はスパース位相検索に適応し、基底信号が$s$-sparseおよび$n$-dimensionalである場合、$O(s log n)$サンプルは同様の保証に十分であることを示す。
論文 参考訳(メタデータ) (2021-06-29T12:49:54Z) - Revisiting the Sample Complexity of Sparse Spectrum Approximation of
Gaussian Processes [60.479499225746295]
本稿では,ガウス過程に対して,パラメータ空間全体に対して同時に保持可能な保証付きスケーラブルな近似を導入する。
我々の近似は、スパーススペクトルガウス過程(SSGP)のための改良されたサンプル複雑性解析から得られる。
論文 参考訳(メタデータ) (2020-11-17T05:41:50Z) - Non-Adaptive Adaptive Sampling on Turnstile Streams [57.619901304728366]
カラムサブセット選択、部分空間近似、射影クラスタリング、および空間サブリニアを$n$で使用するターンタイルストリームのボリュームに対する最初の相対エラーアルゴリズムを提供する。
我々の適応的なサンプリング手法は、様々なデータ要約問題に多くの応用をもたらしており、これは最先端を改善するか、より緩和された行列列モデルで以前に研究されただけである。
論文 参考訳(メタデータ) (2020-04-23T05:00:21Z) - Diversity sampling is an implicit regularization for kernel methods [13.136143245702915]
多様なランドマークを持つNystrのカーネルレグレッションにより,データセットのスペーサー領域におけるレグレッションの精度が向上することを示す。
正確な DPP サンプリングが現実的に実現不可能な場合, 大規模なデータセット内で大きなサイズのサンプルを選択するために, グリーディも提案されている。
論文 参考訳(メタデータ) (2020-02-20T08:24:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。