論文の概要: Stochastic geometry to generalize the Mondrian Process
- arxiv url: http://arxiv.org/abs/2002.00797v3
- Date: Mon, 13 Sep 2021 18:04:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 08:40:10.173214
- Title: Stochastic geometry to generalize the Mondrian Process
- Title(参考訳): モンドリアン過程を一般化する確率幾何学
- Authors: Eliza O'Reilly and Ngoc Tran
- Abstract要約: 離散分布から引き出されたカット方向のSTITプロセスは,高次元軸方向のモンドリアン過程に昇降することにより効率的にシミュレーションできることを示す。
また、静止STITプロセスとそれらの混合物が近似できる全ての可能なカーネルを特徴付ける。
これにより、密度推定において、モンドリアンの森、モンドリアンのカーネル、ラプラスのカーネルの正確な比較が可能になる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The stable under iterated tessellation (STIT) process is a stochastic process
that produces a recursive partition of space with cut directions drawn
independently from a distribution over the sphere. The case of random
axis-aligned cuts is known as the Mondrian process. Random forests and Laplace
kernel approximations built from the Mondrian process have led to efficient
online learning methods and Bayesian optimization. In this work, we utilize
tools from stochastic geometry to resolve some fundamental questions concerning
STIT processes in machine learning. First, we show that a STIT process with cut
directions drawn from a discrete distribution can be efficiently simulated by
lifting to a higher dimensional axis-aligned Mondrian process. Second, we
characterize all possible kernels that stationary STIT processes and their
mixtures can approximate. We also give a uniform convergence rate for the
approximation error of the STIT kernels to the targeted kernels, generalizing
the work of [3] for the Mondrian case. Third, we obtain consistency results for
STIT forests in density estimation and regression. Finally, we give a formula
for the density estimator arising from an infinite STIT random forest. This
allows for precise comparisons between the Mondrian forest, the Mondrian kernel
and the Laplace kernel in density estimation. Our paper calls for further
developments at the novel intersection of stochastic geometry and machine
learning.
- Abstract(参考訳): 安定な反復型テッセルレーション(STIT)過程は、球面上の分布から独立に引き起こされた切断方向の空間の再帰的分割を生成する確率過程である。
ランダムな軸整列切断の場合にはモンドリアン過程と呼ばれる。
モンドリアン過程から構築されたランダムフォレストとラプラス・カーネル近似は、効率的なオンライン学習法とベイズ最適化につながった。
本研究では,確率幾何学のツールを用いて,機械学習におけるSTITプロセスに関する基本的な問題を解決する。
まず, 離散分布から引き出されたカット方向を持つスタイト過程を, 高次元軸配置モンドリアン過程へ持ち上げることで効率的にシミュレーションできることを示す。
第2に、静止スタイトプロセスとその混合物が近似できる全ての可能なカーネルを特徴付ける。
また,sitカーネルの近似誤差に対する一様収束率をターゲットカーネルに与え,mondrian の場合 [3] の作業を一般化した。
第3に,密度推定と回帰において,スタイト林の一貫性が得られた。
最後に、無限のSTITランダム森林から生じる密度推定器の式を示す。
これにより、密度推定において、モンドリアン森林、モンドリアン核、ラプラス核とを正確に比較することができる。
本稿では,確率幾何学と機械学習の新しい交点におけるさらなる発展を求める。
関連論文リスト
- Score matching for sub-Riemannian bridge sampling [2.048226951354646]
機械学習の最近の進歩は、サブリーマン勾配上でのスコア近似器のトレーニングを可能にするために修正することができる。
本研究では,ハイゼンベルク層群における橋梁プロセスの試料の数値実験を行い,その濃度を短時間で測定した。
論文 参考訳(メタデータ) (2024-04-23T17:45:53Z) - Posterior Contraction Rates for Mat\'ern Gaussian Processes on
Riemannian Manifolds [51.68005047958965]
我々は,本質的なガウス過程が実際により優れた性能を発揮することを示す。
我々の研究は、データ効率の異なるレベルを区別するために、よりきめ細かい分析が必要であることを示している。
論文 参考訳(メタデータ) (2023-09-19T20:30:58Z) - Distributed Sketching for Randomized Optimization: Exact
Characterization, Concentration and Lower Bounds [54.51566432934556]
我々はヘシアンの形成が困難である問題に対する分散最適化法を検討する。
ランダム化されたスケッチを利用して、問題の次元を減らし、プライバシを保ち、非同期分散システムにおけるストラグラーレジリエンスを改善します。
論文 参考訳(メタデータ) (2022-03-18T05:49:13Z) - Gaussian Processes and Statistical Decision-making in Non-Euclidean
Spaces [96.53463532832939]
我々はガウス過程の適用性を高める技術を開発した。
この観点から構築した効率的な近似を幅広く導入する。
非ユークリッド空間上のガウス過程モデルの集合を開発する。
論文 参考訳(メタデータ) (2022-02-22T01:42:57Z) - Shape Modeling with Spline Partitions [3.222802562733787]
本稿では,曲線で領域を分割する並列化ベイズ非パラメトリック手法を提案する。
我々はHIV-1感染したヒトマクロファージ画像データセットに本手法を適用し、また、我々のアプローチを説明するためのデータセットのシミュレーションを行った。
論文 参考訳(メタデータ) (2021-08-05T10:33:05Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z) - Sparse Algorithms for Markovian Gaussian Processes [18.999495374836584]
スパースマルコフ過程は、誘導変数の使用と効率的なカルマンフィルタライク再帰を結合する。
我々は,局所ガウス項を用いて非ガウス的確率を近似する一般的なサイトベースアプローチであるsitesを導出する。
提案手法は,変動推論,期待伝播,古典非線形カルマンスムーサなど,機械学習と信号処理の両方から得られるアルゴリズムの新たなスパース拡張の一群を導出する。
派生した方法は、モデルが時間と空間の両方で別々の誘導点を持つ文学時間データに適しています。
論文 参考訳(メタデータ) (2021-03-19T09:50:53Z) - Pathwise Conditioning of Gaussian Processes [72.61885354624604]
ガウス過程後部をシミュレーションするための従来のアプローチでは、有限個の入力位置のプロセス値の限界分布からサンプルを抽出する。
この分布中心の特徴づけは、所望のランダムベクトルのサイズで3次スケールする生成戦略をもたらす。
条件付けのこのパスワイズ解釈が、ガウス過程の後部を効率的にサンプリングするのに役立てる近似の一般族をいかに生み出すかを示す。
論文 参考訳(メタデータ) (2020-11-08T17:09:37Z) - Schoenberg-Rao distances: Entropy-based and geometry-aware statistical
Hilbert distances [12.729120803225065]
我々は、シェーンベルク-ラオ距離(Schoenberg-Rao distances)と呼ばれる統計ヒルベルト距離のクラスを研究する。
ガウス分布の混合物間の新しい閉形式距離を導出する。
提案手法はワッサーシュタイン距離の代替として実用的であり,その効率性は幅広い機械学習タスクで説明できる。
論文 参考訳(メタデータ) (2020-02-19T18:48:33Z) - Distributed Averaging Methods for Randomized Second Order Optimization [54.51566432934556]
我々はヘッセン語の形成が計算的に困難であり、通信がボトルネックとなる分散最適化問題を考察する。
我々は、ヘッセンのサンプリングとスケッチを用いたランダム化二階最適化のための非バイアスパラメータ平均化手法を開発した。
また、不均一なコンピューティングシステムのための非バイアス分散最適化フレームワークを導入するために、二階平均化手法のフレームワークを拡張した。
論文 参考訳(メタデータ) (2020-02-16T09:01:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。