論文の概要: Randomized HyperSteiner: A Stochastic Delaunay Triangulation Heuristic for the Hyperbolic Steiner Minimal Tree
- arxiv url: http://arxiv.org/abs/2510.09328v1
- Date: Fri, 10 Oct 2025 12:31:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.901597
- Title: Randomized HyperSteiner: A Stochastic Delaunay Triangulation Heuristic for the Hyperbolic Steiner Minimal Tree
- Title(参考訳): Randomized HyperSteiner: 双曲性ステイナ最小木に対する確率的デラウネー三角法ヒューリスティック
- Authors: Aniss Aiman Medbouhi, Alejandro García-Castellanos, Giovanni Luca Marchetti, Daniel Pelt, Erik J Bekkers, Danica Kragic,
- Abstract要約: 双曲空間におけるSteiner Minimal Trees (SMT) 構築の問題を解決するためにRandomized HyperSteiner (RHS) を導入する。
RHSは拡張プロセスにランダム性を導入し、デラウネー三角勾配を通じて候補木を精製する。
ほぼ有界な構成では、RHSはHSよりも全長を32%削減できる。
- 参考スコア(独自算出の注目度): 51.52916554719886
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of constructing Steiner Minimal Trees (SMTs) in hyperbolic space. Exact SMT computation is NP-hard, and existing hyperbolic heuristics such as HyperSteiner are deterministic and often get trapped in locally suboptimal configurations. We introduce Randomized HyperSteiner (RHS), a stochastic Delaunay triangulation heuristic that incorporates randomness into the expansion process and refines candidate trees via Riemannian gradient descent optimization. Experiments on synthetic data sets and a real-world single-cell transcriptomic data show that RHS outperforms Minimum Spanning Tree (MST), Neighbour Joining, and vanilla HyperSteiner (HS). In near-boundary configurations, RHS can achieve a 32% reduction in total length over HS, demonstrating its effectiveness and robustness in diverse data regimes.
- Abstract(参考訳): 双曲空間におけるSteiner Minimal Trees (SMT) の構成問題について検討する。
厳密なSMT計算はNPハードであり、HyperSteinerのような既存の双曲的ヒューリスティックは決定論的であり、しばしば局所的な最適構成に閉じ込められる。
我々はRHS(Randomized HyperSteiner)を導入する。これは確率的デラウネー三角法ヒューリスティックで、ランダム性を拡張プロセスに組み込み、リーマン勾配降下最適化を通じて候補木を洗練する。
合成データセットと実世界の単細胞転写データの実験により、RHSは最小スパンニングツリー(MST)、近隣結合、バニラハイパーステナー(HS)より優れていることが示された。
ほぼ有界な構成では、RHSはHSよりも総長さを32%削減することができ、様々なデータ体制におけるその有効性と堅牢性を示している。
関連論文リスト
- FAMST: Fast Approximate Minimum Spanning Tree Construction for Large-Scale and High-Dimensional Data [0.0]
Fast Approximate Minimum Spanning Tree (FAMST)は、最小スパンニングツリー(MST)を構築する際の計算課題に対処する新しいアルゴリズムである。
FAMSTは、数百万のポイントと数千の次元を持つデータセットに対するMSTベースの分析を可能にし、MST技術の適用性を、以前は不可能と考えられていた問題スケールにまで拡張する。
論文 参考訳(メタデータ) (2025-07-18T12:53:58Z) - Fast hyperboloid decision tree algorithms [0.6656737591902598]
我々は、決定木アルゴリズムの新たな拡張であるHyperDTを双曲空間に提示する。
私たちのアプローチは概念的には単純で、一定時間の意思決定の複雑さを維持します。
HyperDTの上に構築されたハイパーRFは、双曲的ランダムフォレストモデルである。
論文 参考訳(メタデータ) (2023-10-20T22:31:10Z) - Online Continuous Hyperparameter Optimization for Generalized Linear Contextual Bandits [55.03293214439741]
文脈的包帯では、エージェントは過去の経験に基づいた時間依存アクションセットから順次アクションを行う。
そこで本稿では,文脈的包帯のためのオンライン連続型ハイパーパラメータチューニングフレームワークを提案する。
理論上はサブ線形の後悔を達成でき、合成データと実データの両方において既存のすべての手法よりも一貫して優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-02-18T23:31:20Z) - Unified Convergence Analysis for Adaptive Optimization with Moving Average Estimator [75.05106948314956]
1次モーメントに対する大きな運動量パラメータの増大は適応的スケーリングに十分であることを示す。
また,段階的に減少するステップサイズに応じて,段階的に運動量を増加させるための洞察を与える。
論文 参考訳(メタデータ) (2021-04-30T08:50:24Z) - Sinkhorn Natural Gradient for Generative Models [125.89871274202439]
本研究では,シンクホーンの発散による確率空間上の最も急降下法として機能するシンクホーン自然勾配(SiNG)アルゴリズムを提案する。
本稿では,SiNG の主要成分であるシンクホーン情報行列 (SIM) が明示的な表現を持ち,対数的スケールの複雑さを正確に評価できることを示す。
本実験では,SiNGと最先端のSGD型解法を定量的に比較し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2020-11-09T02:51:17Z) - An Asymptotically Optimal Multi-Armed Bandit Algorithm and
Hyperparameter Optimization [48.5614138038673]
本稿では,高パラメータ探索評価のシナリオにおいて,SS (Sub-Sampling) と呼ばれる効率的で堅牢な帯域幅に基づくアルゴリズムを提案する。
また,BOSSと呼ばれる新しいパラメータ最適化アルゴリズムを開発した。
実験的な研究は、SSの理論的議論を検証し、多くのアプリケーションにおけるBOSSの優れた性能を実証する。
論文 参考訳(メタデータ) (2020-07-11T03:15:21Z) - Augmented Sliced Wasserstein Distances [55.028065567756066]
拡張スライスされたワッサーシュタイン距離(ASWD)と呼ばれる新しい距離測定法を提案する。
ASWDは、ニューラルネットワークによってパラメータ化された高次元超曲面への最初のマッピングサンプルによって構成される。
数値的な結果から、ASWDは、合成問題と実世界の問題の両方において、他のワッサーシュタイン変種を著しく上回っていることが示されている。
論文 参考訳(メタデータ) (2020-06-15T23:00:08Z) - The Statistical Cost of Robust Kernel Hyperparameter Tuning [20.42751031392928]
対向雑音下での能動回帰の設定におけるカーネルハイパーパラメータチューニングの統計的複雑さについて検討した。
カーネルクラスの複雑性の増大がカーネルハイパーパラメータの学習の複雑さを増大させるのを特徴付け、この問題に対する有限サンプル保証を提供する。
論文 参考訳(メタデータ) (2020-06-14T21:56:33Z) - Stochastic geometry to generalize the Mondrian Process [0.0]
離散分布から引き出されたカット方向のSTITプロセスは,高次元軸方向のモンドリアン過程に昇降することにより効率的にシミュレーションできることを示す。
また、静止STITプロセスとそれらの混合物が近似できる全ての可能なカーネルを特徴付ける。
これにより、密度推定において、モンドリアンの森、モンドリアンのカーネル、ラプラスのカーネルの正確な比較が可能になる。
論文 参考訳(メタデータ) (2020-02-03T14:47:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。