論文の概要: Strain-Minimizing Hyperbolic Network Embeddings with Landmarks
- arxiv url: http://arxiv.org/abs/2207.06775v1
- Date: Thu, 14 Jul 2022 09:34:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 14:50:35.719669
- Title: Strain-Minimizing Hyperbolic Network Embeddings with Landmarks
- Title(参考訳): ランドマーク付ハイパーボリックネットワーク埋め込みのひずみ最小化
- Authors: Martin Keller-Ressel and Stephanie Nargang
- Abstract要約: ネットワークや距離に基づくデータを双曲空間に埋め込む手法であるL-hydraを導入する。
d-次元双曲空間における点配置は距離測定からd+1ランドマークまで完全に復元可能であることを示す。
L-hydraは、既存の双曲埋め込み法よりも桁違いに高速で、ノード数で線形にスケールする。
我々は,L-hydra+という拡張を導入し,既存のメソッドを実行時と組込み品質の両方で上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce L-hydra (landmarked hyperbolic distance recovery and
approximation), a method for embedding network- or distance-based data into
hyperbolic space, which requires only the distance measurements to a few
'landmark nodes'. This landmark heuristic makes L-hydra applicable to
large-scale graphs and improves upon previously introduced methods. As a
mathematical justification, we show that a point configuration in d-dimensional
hyperbolic space can be perfectly recovered (up to isometry) from distance
measurements to just d+1 landmarks. We also show that L-hydra solves a
two-stage strain-minimization problem, similar to our previous (unlandmarked)
method 'hydra'. Testing on real network data, we show that L-hydra is an order
of magnitude faster than existing hyperbolic embedding methods and scales
linearly in the number of nodes. While the embedding error of L-hydra is higher
than the error of existing methods, we introduce an extension, L-hydra+, which
outperforms existing methods in both runtime and embedding quality.
- Abstract(参考訳): L-hydra (landmarked hyperbolic distance recovery and approximation) は、ネットワークベースのデータを双曲空間に埋め込む手法であり、いくつかの「ランドマークノード」への距離測定のみを必要とする。
このランドマークヒューリスティックはL-ヒドラを大規模グラフに適用し、以前に導入された方法を改善する。
数学的正当化として、d-次元双曲空間の点構成が距離測定から単にd+1のランドマークまで完全に回復できることが示される。
また,L-hydra は従来の (非ランドマーク) 手法 "hydra" と同様に, 2段階のひずみ最小化問題を解くことを示した。
実ネットワークデータを用いて、L-hydraは既存の双曲埋め込み法よりも桁違いに高速であり、ノード数で線形にスケールすることを示した。
l-hydraの埋め込みエラーは既存のメソッドのエラーよりも高いが、ランタイムと組み込み品質の両方で既存のメソッドを上回る拡張であるl-hydra+を導入する。
関連論文リスト
- A Sample Efficient Alternating Minimization-based Algorithm For Robust Phase Retrieval [56.67706781191521]
そこで本研究では,未知の信号の復元を課題とする,ロバストな位相探索問題を提案する。
提案するオラクルは、単純な勾配ステップと外れ値を用いて、計算学的スペクトル降下を回避している。
論文 参考訳(メタデータ) (2024-09-07T06:37:23Z) - Size Lowerbounds for Deep Operator Networks [0.27195102129094995]
我々は、ノイズの多いデータに対する経験的エラーを低減するために必要なDeepONetsのサイズに対して、データ依存の低いバウンドを確立する。
固定モデルサイズにおいて、この共通出力次元の増大を利用してトレーニング誤差の単調な低減を実現するためには、トレーニングデータのサイズが少なくとも2次的にスケールする必要があることを実証する。
論文 参考訳(メタデータ) (2023-08-11T18:26:09Z) - Linearized Wasserstein dimensionality reduction with approximation
guarantees [65.16758672591365]
LOT Wassmap は、ワーッサーシュタイン空間の低次元構造を明らかにするための計算可能なアルゴリズムである。
我々は,LOT Wassmapが正しい埋め込みを実現し,サンプルサイズの増加とともに品質が向上することを示す。
また、LOT Wassmapがペア距離計算に依存するアルゴリズムと比較して計算コストを大幅に削減することを示す。
論文 参考訳(メタデータ) (2023-02-14T22:12:16Z) - Implicit Bias in Leaky ReLU Networks Trained on High-Dimensional Data [63.34506218832164]
本研究では,ReLUを活性化した2層完全連結ニューラルネットワークにおける勾配流と勾配降下の暗黙的バイアスについて検討する。
勾配流には、均一なニューラルネットワークに対する暗黙のバイアスに関する最近の研究を活用し、リーク的に勾配流が2つ以上のランクを持つニューラルネットワークを生成することを示す。
勾配降下は, ランダムな分散が十分小さい場合, 勾配降下の1ステップでネットワークのランクが劇的に低下し, トレーニング中もランクが小さくなることを示す。
論文 参考訳(メタデータ) (2022-10-13T15:09:54Z) - Hierarchical Sliced Wasserstein Distance [27.12983497199479]
スライスされたワッサースタイン(SW)距離は、次元の呪いに悩まされることなく、多数のサポーターにスケールすることができる。
サポート数の効率性にもかかわらず、スライスされたワッサーシュタインを推定するには、高次元の設定において比較的多くの投影が必要である。
ボトルネック投影と呼ばれる少数の投影を線形かつランダムに組み合わせて投影を導出することを提案する。
次に、階層スライクド・ワッサースタイン距離(HSW)と呼ばれる測度間の新しい測度へのアプローチを定式化する。
論文 参考訳(メタデータ) (2022-09-27T17:46:15Z) - Approximating 1-Wasserstein Distance with Trees [41.77145868123863]
Wasserstein distanceは、自然言語処理(NLP)とコンピュータビジョン(CV)の様々な用途で有効である。
ワッサースタイン距離を推定する際の課題の1つは、計算コストが高く、多くの分布比較タスクではうまくスケールしないことである。
樹木の縁の重みを学習するための,単純かつ効率的なL1正規化手法を提案する。
論文 参考訳(メタデータ) (2022-06-24T07:19:50Z) - Physics-Informed Machine Learning Method for Large-Scale Data
Assimilation Problems [48.7576911714538]
我々は,未知のフラックス (Neumann) と様々なヘッド (Dirichlet) 境界条件を持つ地下流れをモデル化するための物理インフォームド条件付きKarhunen-Lo'eve展開法(PICKLE)を拡張した。
PICKLE法はMAP法と精度が比較できるが,大規模問題ではMAP法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2021-07-30T18:43:14Z) - Learning High Dimensional Wasserstein Geodesics [55.086626708837635]
高次元の2つの確率分布の間のワッサーシュタイン測地線を計算するための新しい定式化と学習戦略を提案する。
ラグランジュ乗算器の手法を最適輸送(OT)問題の動的定式化に適用することにより、サドル点がワッサーシュタイン測地線であるミニマックス問題を導出する。
次に、深層ニューラルネットワークによる関数のパラメータ化を行い、トレーニングのためのサンプルベースの双方向学習アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-02-05T04:25:28Z) - Wasserstein K-Means for Clustering Tomographic Projections [6.878995336760916]
画像に対する回転不変ワッサーシュタイン計量に基づくk-meansアルゴリズムを提案する。
高速線形時間近似(英語版)(Wasserstein-1 metric)、またはアースモーバー距離(Earthmover's distance)を用いることにより、計算オーバーヘッドはほとんどない。
論文 参考訳(メタデータ) (2020-10-20T03:28:17Z) - The Unbalanced Gromov Wasserstein Distance: Conic Formulation and
Relaxation [0.0]
距離測度空間(すなわち確率分布を持つ距離空間)を比較することは、多くの機械学習問題の中心である。
そのような距離空間の間の最も一般的な距離は計量測度Gro-Wasserstein (GW) 距離であり、その距離は二次である。
GW の定式化は、任意の正測度を持つ距離空間の比較を等距離まで緩和する。
論文 参考訳(メタデータ) (2020-09-09T12:38:14Z) - Augmented Sliced Wasserstein Distances [55.028065567756066]
拡張スライスされたワッサーシュタイン距離(ASWD)と呼ばれる新しい距離測定法を提案する。
ASWDは、ニューラルネットワークによってパラメータ化された高次元超曲面への最初のマッピングサンプルによって構成される。
数値的な結果から、ASWDは、合成問題と実世界の問題の両方において、他のワッサーシュタイン変種を著しく上回っていることが示されている。
論文 参考訳(メタデータ) (2020-06-15T23:00:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。