論文の概要: A Forward Backward Greedy approach for Sparse Multiscale Learning
- arxiv url: http://arxiv.org/abs/2102.07068v1
- Date: Sun, 14 Feb 2021 04:22:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:39:45.827908
- Title: A Forward Backward Greedy approach for Sparse Multiscale Learning
- Title(参考訳): スパース・マルチスケール学習のための前方逆流グリーディ手法
- Authors: Prashant Shekhar and Abani Patra
- Abstract要約: 本稿では,カーネルが重み付きマルチスケール構造を持つRKHS(Reproduction Kernel Hilbert space)を提案する。
この空間における近似を生成するために、多スケール構造を持つ基底関数の集合をゆるやかに構成できる実用的なフォワードバックワードアルゴリズムを提供する。
我々は,様々なシミュレーションと実データ集合を用いて,アプローチの性能を解析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiscale Models are known to be successful in uncovering and analyzing the
structures in data at different resolutions. In the current work we propose a
feature driven Reproducing Kernel Hilbert space (RKHS), for which the
associated kernel has a weighted multiscale structure. For generating
approximations in this space, we provide a practical forward-backward algorithm
that is shown to greedily construct a set of basis functions having a
multiscale structure, while also creating sparse representations from the given
data set, making representations and predictions very efficient. We provide a
detailed analysis of the algorithm including recommendations for selecting
algorithmic hyper-parameters and estimating probabilistic rates of convergence
at individual scales. Then we extend this analysis to multiscale setting,
studying the effects of finite scale truncation and quality of solution in the
inherent RKHS. In the last section, we analyze the performance of the approach
on a variety of simulation and real data sets, thereby justifying the
efficiency claims in terms of model quality and data reduction.
- Abstract(参考訳): マルチスケールモデルは、異なる解像度でデータの構造を発見し解析することに成功したことが知られている。
現在の研究では、関連するカーネルが重み付きマルチスケール構造を持つ機能駆動のカーネルヒルベルト空間(RKHS)を提案する。
この空間で近似を生成するために、マルチスケール構造を持つ基底関数の集合を段階的に構築し、与えられたデータセットから疎表現を作成し、表現と予測を非常に効率的にする実用的なフォワードバックワードアルゴリズムを提供する。
アルゴリズムハイパーパラメータの選択と個々のスケールでの収束確率の推定のための推奨を含むアルゴリズムの詳細な分析を提供します。
次に、この分析をマルチスケール設定に拡張し、固有のRKHSにおける有限スケール切断および溶液の品質の影響を研究します。
最後のセクションでは、さまざまなシミュレーションと実際のデータセットに対するアプローチのパフォーマンスを分析し、モデル品質とデータ削減の観点から効率要求を正当化します。
関連論文リスト
- Model-free Estimation of Latent Structure via Multiscale Nonparametric Maximum Likelihood [13.175343048302697]
そこで我々は,そのような潜在構造がいつでも存在すると仮定することなく,その存在を推定するためのモデルフリーな手法を提案する。
アプリケーションとして,提案手法に基づくクラスタリングアルゴリズムを設計し,広範囲の潜伏構造を捕捉する手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-29T17:11:33Z) - Nonconvex Federated Learning on Compact Smooth Submanifolds With Heterogeneous Data [23.661713049508375]
本稿では,クライアントの設定においてサブマニフォールド上で学習するアルゴリズムを提案する。
提案アルゴリズムは,新しい解析手法を用いて一階最適解の近傍に部分収束することを示す。
論文 参考訳(メタデータ) (2024-06-12T17:53:28Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Quantized Hierarchical Federated Learning: A Robust Approach to
Statistical Heterogeneity [3.8798345704175534]
本稿では,コミュニケーション効率に量子化を組み込んだ新しい階層型フェデレーション学習アルゴリズムを提案する。
最適性ギャップと収束率を評価するための包括的な分析フレームワークを提供する。
この結果から,本アルゴリズムはパラメータの範囲で常に高い学習精度を達成できることが判明した。
論文 参考訳(メタデータ) (2024-03-03T15:40:24Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Fast conformational clustering of extensive molecular dynamics
simulation data [19.444636864515726]
本稿では,長い軌道の高速なコンフォーメーションクラスタリングを実現するために,教師なしのデータ処理ワークフローを提案する。
我々は密度に基づく空間クラスタリングアルゴリズム(HDBSCAN)と2つの次元削減アルゴリズム(cc_analysisとEncodermap)を組み合わせる。
4つのテストシステムの助けを借りて、このクラスタリングワークフローの機能とパフォーマンスを説明します。
論文 参考訳(メタデータ) (2023-01-11T14:36:43Z) - Analysis of Truncated Orthogonal Iteration for Sparse Eigenvector
Problems [78.95866278697777]
本研究では,多元的固有ベクトルを分散制約で同時に計算するTruncated Orthogonal Iterationの2つの変種を提案する。
次に,我々のアルゴリズムを適用して,幅広いテストデータセットに対するスパース原理成分分析問題を解く。
論文 参考訳(メタデータ) (2021-03-24T23:11:32Z) - Deep Representational Similarity Learning for analyzing neural
signatures in task-based fMRI dataset [81.02949933048332]
本稿では、表現類似度分析(RSA)の深部拡張であるDRSL(Deep Representational similarity Learning)を開発する。
DRSLは、多数の被験者を持つfMRIデータセットにおける様々な認知タスク間の類似性を分析するのに適している。
論文 参考訳(メタデータ) (2020-09-28T18:30:14Z) - Hierarchical regularization networks for sparsification based learning
on noisy datasets [0.0]
階層は、連続的により微細なスケールで特定される近似空間から従う。
各スケールでのモデル一般化を促進するため,複数次元にわたる新規な射影型ペナルティ演算子も導入する。
その結果、合成データセットと実データセットの両方において、データ削減およびモデリング戦略としてのアプローチの性能が示された。
論文 参考訳(メタデータ) (2020-06-09T18:32:24Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z) - CONSAC: Robust Multi-Model Fitting by Conditional Sample Consensus [62.86856923633923]
我々は,同じ形状の複数のパラメトリックモデルを雑音測定に適合させる頑健な推定器を提案する。
複数のモデル検出のための手作り検索戦略を利用する従来の研究とは対照的に,データから検索戦略を学習する。
探索の自己教師付き学習において,提案したアルゴリズムをマルチホログラフィー推定で評価し,最先端手法よりも優れた精度を示す。
論文 参考訳(メタデータ) (2020-01-08T17:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。