論文の概要: Radial Basis Function Approximation with Distributively Stored Data on
Spheres
- arxiv url: http://arxiv.org/abs/2112.02499v1
- Date: Sun, 5 Dec 2021 07:37:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 18:25:55.002811
- Title: Radial Basis Function Approximation with Distributively Stored Data on
Spheres
- Title(参考訳): 球面上の分布保存データを用いた半径基底関数近似
- Authors: Han Feng, Shao-Bo Lin, Ding-Xuan Zhou
- Abstract要約: 分散重み付き正規化最小二乗アルゴリズム (DWRLS) は、多数のローカルサーバにまたがって格納され、互いに共有できない球面データに対処するために提案される。
DWRLSは、重み付けされた正規化最小二乗アルゴリズムを、全データを十分に大きなマシン上で実行しているのと同様な性能を示す。
- 参考スコア(独自算出の注目度): 28.586258731448687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a distributed weighted regularized least squares
algorithm (DWRLS) based on spherical radial basis functions and spherical
quadrature rules to tackle spherical data that are stored across numerous local
servers and cannot be shared with each other. Via developing a novel integral
operator approach, we succeed in deriving optimal approximation rates for DWRLS
and theoretically demonstrate that DWRLS performs similarly as running a
weighted regularized least squares algorithm with the whole data on a large
enough machine. This interesting finding implies that distributed learning is
capable of sufficiently exploiting potential values of distributively stored
spherical data, even though every local server cannot access all the data.
- Abstract(参考訳): 本稿では,多数のローカルサーバに分散して共有できない球面データに対処するために,球面ラジアル基底関数と球面二次規則に基づく分散重み付き正規化最小二乗アルゴリズム(DWRLS)を提案する。
新しい積分演算子法の開発により、dwrlsの最適近似率の導出に成功し、理論上、dwrlsは重み付き正規化最小二乗法を十分大きなマシン上で全データで実行するのと同じように動作することを理論的に証明する。
この興味深い発見は、分散学習が、すべてのローカルサーバがすべてのデータにアクセスできないにもかかわらず、分散的に格納された球形データの潜在的価値を十分に活用できることを示している。
関連論文リスト
- Linear Spherical Sliced Optimal Transport: A Fast Metric for Comparing Spherical Data [11.432994366694862]
線形最適輸送は (L2 ) 空間に分布を埋め込むために提案され、そこでは (L2 ) 距離が最適輸送距離を近似する。
球面分布を(L2)空間に埋め込んだ線形球面スライス最適輸送フレームワークを導入する。
本研究では, 皮質表面の登録, 流れ勾配による3次元点雲, 形状埋め込みなどの応用において, 計算効率が優れていることを示す。
論文 参考訳(メタデータ) (2024-11-09T03:36:59Z) - ROSS:RObust decentralized Stochastic learning based on Shapley values [21.376454436691795]
エージェントのグループは、中央サーバーなしで分散データセットを使用してグローバルモデルを学ぶために協力します。
データは非独立に、同一に配布され、ノイズや毒で汚染されることもある。
本稿では,Shapley値に基づく頑健な分散学習アルゴリズム ROSS を提案する。
論文 参考訳(メタデータ) (2024-11-01T05:05:15Z) - Networked Communication for Mean-Field Games with Function Approximation and Empirical Mean-Field Estimation [59.01527054553122]
分散エージェントは、経験的システムの単一かつ非エポゾディックな実行から平均フィールドゲームにおける平衡を学ぶことができる。
既存の設定に関数近似を導入し,Munchausen Online Mirror Descent 方式で描画する。
また, エージェントが局所的な周辺地域に基づいて, グローバルな経験分布を推定できる新しいアルゴリズムも提供する。
論文 参考訳(メタデータ) (2024-08-21T13:32:46Z) - Approximating a RUM from Distributions on k-Slates [88.32814292632675]
与えられた分布を平均で最もよく近似するRUMを求める一般化時間アルゴリズムを求める。
我々の理論的結果は、実世界のデータセットに効果的でスケール可能なものを得るという、実践的な結果も得られます。
論文 参考訳(メタデータ) (2023-05-22T17:43:34Z) - Score Approximation, Estimation and Distribution Recovery of Diffusion
Models on Low-Dimensional Data [68.62134204367668]
本稿では,未知の低次元線形部分空間上でデータをサポートする場合の拡散モデルのスコア近似,推定,分布回復について検討する。
適切に選択されたニューラルネットワークアーキテクチャでは、スコア関数を正確に近似し、効率的に推定することができる。
推定スコア関数に基づいて生成された分布は、データ幾何学構造を捕捉し、データ分布の近傍に収束する。
論文 参考訳(メタデータ) (2023-02-14T17:02:35Z) - Distributed Learning of Generalized Linear Causal Networks [19.381934612280993]
正規化確率スコア(DARLS)に基づく分散焼鈍という構造学習手法を提案する。
DARLSは、そのような理論的保証で因果グラフを学習する最初の方法である。
タンパク質-DNA結合ネットワークを分散ChIPシーケンシングデータでモデル化する現実世界のアプリケーションにおいて、DARLSは他の方法よりも高い予測力を示す。
論文 参考訳(メタデータ) (2022-01-23T06:33:25Z) - Density-Based Clustering with Kernel Diffusion [59.4179549482505]
単位$d$次元ユークリッド球のインジケータ関数に対応するナイーブ密度は、密度に基づくクラスタリングアルゴリズムで一般的に使用される。
局所分布特性と滑らかさの異なるデータに適応する新しいカーネル拡散密度関数を提案する。
論文 参考訳(メタデータ) (2021-10-11T09:00:33Z) - Learning a Deep Part-based Representation by Preserving Data
Distribution [21.13421736154956]
教師なし次元減少は、高次元データ認識問題において一般的に用いられる技法の1つである。
本稿では,データ分布を保存することにより,深部部分に基づく表現を学習し,新しいアルゴリズムを分散保存ネットワーク埋め込みと呼ぶ。
実世界のデータセットにおける実験結果から,提案アルゴリズムはクラスタ精度とAMIの点で優れた性能を示した。
論文 参考訳(メタデータ) (2020-09-17T12:49:36Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z) - Kernel based analysis of massive data [0.45687771576879593]
そこで我々は,ネットワークによる近似理論を開発し,局所的に階層化された近似を実現する。
データの巨大な性質により、逆問題を解決するためにこれらのイグネットを使用することができます。
我々は、近似にデータベースのトレーニングを必要としないように、プレハブネットワークを構築している。
論文 参考訳(メタデータ) (2020-03-30T05:25:09Z) - Brainstorming Generative Adversarial Networks (BGANs): Towards
Multi-Agent Generative Models with Distributed Private Datasets [70.62568022925971]
生成的敵ネットワーク(GAN)は、データ空間を適切に表現する大規模なデータセットによって供給されなければならない。
多くのシナリオでは、利用可能なデータセットは制限され、複数のエージェントに分散する可能性がある。
本稿では,BGAN(Breepstorming GAN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-02T02:58:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。