論文の概要、ライセンス

# (参考訳) グラフ埋め込みに対する対称空間:finsler-riemannianアプローチ [全文訳有]

Symmetric Spaces for Graph Embeddings: A Finsler-Riemannian Approach ( http://arxiv.org/abs/2106.04941v1 )

ライセンス: CC BY 4.0
Federico L\'opez, Beatrice Pozzetti, Steve Trettel, Michael Strube, Anna Wienhard(参考訳) 頂点埋め込みのセットとして忠実なグラフ表現を学ぶことは、幅広い機械学習アプリケーションにおける基本的な中間的ステップとなっている。 表現学習における対称空間を体系的に利用することを提案する。 これにより、リーマン最適化スキームに統合されたフィンスラー計量を用いることで、グラフ内の異種構造に適応する新しい手法を導入することができる。 組込みを分析し,データセットの構造特性を推測するツールを開発した。 実装では、対称空間の多彩な族であるジーゲル空間を選択する。 本手法は,様々な合成および実世界のデータセットにおけるグラフ再構成タスクの競合ベースラインを上回っている。 さらに,2つの下流タスク,レコメンダシステムとノード分類に適用可能性を示す。

Learning faithful graph representations as sets of vertex embeddings has become a fundamental intermediary step in a wide range of machine learning applications. We propose the systematic use of symmetric spaces in representation learning, a class encompassing many of the previously used embedding targets. This enables us to introduce a new method, the use of Finsler metrics integrated in a Riemannian optimization scheme, that better adapts to dissimilar structures in the graph. We develop a tool to analyze the embeddings and infer structural properties of the data sets. For implementation, we choose Siegel spaces, a versatile family of symmetric spaces. Our approach outperforms competitive baselines for graph reconstruction tasks on various synthetic and real-world datasets. We further demonstrate its applicability on two downstream tasks, recommender systems and node classification.
公開日: Wed, 9 Jun 2021 09:33:33 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings: A Finsler-Riemannian Approach グラフ埋め込みに対する対称空間:finsler-riemannianアプローチ 0.82
Federico L´opez 1 Beatrice Pozzetti 2 Steve Trettel 3 Michael Strube 1 Anna Wienhard 2 Federico L ́opez 1 Beatrice Pozzetti 2 Steve Trettel 3 Michael Strube 1 Anna Wienhard 2 0.96
1 2 0 2 n u J 1 2 0 2 n u J 0.85
9 ] G L . 9 ] G L。 0.81
s c [ 1 v 1 4 9 4 0 sc [ 1 v 1 4 9 4 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Abstract Learning faithful graph representations as sets of vertex embeddings has become a fundamental intermediary step in a wide range of machine learning applications. 概要 頂点埋め込みのセットとして忠実なグラフ表現を学ぶことは、幅広い機械学習アプリケーションにおける基本的な中間的ステップとなっている。 0.58
We propose the systematic use of symmetric spaces in representation learning, a class encompassing many of the previously used embedding targets. 表現学習における対称空間を体系的に利用することを提案する。
訳抜け防止モード: 表現学習における対称空間の体系的利用を提案する。 以前使われた埋め込みターゲットの多くを含むクラス。
0.75
This enables us to introduce a new method, the use of Finsler metrics integrated in a Riemannian optimization scheme, that better adapts to dissimilar structures in the graph. これにより、リーマン最適化スキームに統合されたフィンスラー計量を用いることで、グラフ内の異種構造に適応する新しい手法を導入することができる。 0.78
We develop a tool to analyze the embeddings and infer structural properties of the data sets. 組込みを分析し,データセットの構造特性を推測するツールを開発した。 0.79
For implementation, we choose Siegel spaces, a versatile family of symmetric spaces. 実装では、対称空間の多彩な族であるジーゲル空間を選択する。 0.56
Our approach outperforms competitive baselines for graph reconstruction tasks on various synthetic and real-world datasets. 本手法は,様々な合成および実世界のデータセットにおけるグラフ再構成タスクの競合ベースラインを上回っている。 0.54
We further demonstrate its applicability on two downstream tasks, recommender systems and node classification. さらに,2つの下流タスク,レコメンダシステムとノード分類に適用可能性を示す。 0.74
1. Introduction The goal of representation learning is to embed real-world data, frequently modeled on a graph, into an ambient space. 1. はじめに 表現学習の目標は、しばしばグラフ上にモデル化された実世界のデータを周囲の空間に埋め込むことです。 0.82
This embedding space can then be used to analyze and perform tasks on the discrete graph. この埋め込み空間は、離散グラフ上のタスクの分析と実行に使うことができる。 0.82
The predominant approach has been to embed discrete structures in an Euclidean space. 主要なアプローチは、ユークリッド空間に離散構造を埋め込むことである。 0.70
Nonetheless, data in many domains exhibit non-Euclidean features (Krioukov et al , 2010; Bronstein et al , 2017), making embeddings into Riemannian manifolds with a richer structure necessary. それにもかかわらず、多くの領域のデータは非ユークリッド的特徴(Krioukov et al , 2010; Bronstein et al , 2017)を示し、よりリッチな構造を持つリーマン多様体への埋め込みを作る。 0.62
For this reason, embeddings into hyperbolic (Krioukov et al , 2009; Nickel & Kiela, 2017; Sala et al , 2018; L´opez & Strube, 2020) and spherical spaces (Wilson et al , 2014; Liu et al , 2017; Xu & Durrett, 2018) have been developed. このため、双曲型 (Krioukov et al , 2009; Nickel & Kiela, 2017; Sala et al , 2018; L ́opez & Strube, 2020) と球面空間 (Wilson et al , 2014; Liu et al , 2017; Xu & Durrett, 2018) への埋め込みが開発された。 0.86
Recent work proposes to combine different curvatures through several layers (Chami et al , 最近の研究は、複数の層を通して異なる曲率を組み合わせることを提案する(Chami et al )。 0.55
1Heidelberg Institute for Theoretical Studies, Heidelberg, Germany 2Mathematical Institute, Heidelberg University, Heidelberg, Germany 3Department of Mathematics, Stanford University, California, USA. 1Heidelberg Institute for Theory Studies, Heidelberg, Germany 2 Mathematical Institute, Heidelberg University, Heidelberg, Germany 3 Department of Mathematics, Stanford University, California, USA 0.87
Correspondence to: Federico L´opez <federico.lopez@h-its .org>. Federico L ́opez <federico.lopez@h-its .org> 0.75
Proceedings of the 38 th International Conference on Machine Learning, PMLR 139, 2021. 第38回機械学習国際会議(PMLR 139, 2021)の開催報告 0.68
Copyright 2021 by the author(s). 著作者による著作権2021。 0.53
Figure 1. Symmetric spaces have a rich structure of totally geodesic subspaces, including flat subspaces (orange) and hyperbolic planes (blue). 図1。 対称空間は、平坦部分空間(オレンジ)や双曲平面(ブルー)を含む全測地部分空間のリッチな構造を持つ。 0.75
This compound, yet computationally tractable geometry allows isometric embeddings of many graphs, including those with subgraphs of dissimilar geometry. この複体だが計算可能な幾何学は、異なる幾何学の部分グラフを含む多くのグラフの等尺埋め込みを可能にする。 0.60
For example the graph embedded in the picture has both trees and grids as subgraphs. 例えば、図に埋め込まれたグラフは、木と格子の両方をグラフとして持つ。 0.68
2019; Bachmann et al , 2020; Grattarola et al , 2020), to enrich the geometry by considering Cartesian products of spaces (Gu et al , 2019; Tifrea et al , 2019; Skopek et al , 2020), or to use Grassmannian manifolds or the space of symmetric positive definite matrices (SPD) as a trade-off between the representation capability and the computational tractability of the space (Huang & Gool, 2017; Huang et al , 2018; Cruceru et al , 2020). 2019年 Bachmann et al , 2020年 Bachmann et al , 2020年 Bachmann et al , 2019年 Tifrea et al , 2019年 Skopek et al , 2020年 Bachmann et al , 2019年 Bachmann et al , 2019年 Bachmann et al , 2020年 Bachmann et al , 2020年 Bachmann et al , 2020年 Bachmann et al , 2020年 Bachtarola et al , 2020年 Huang & Gool, 2017年 Huang et al , 2018年 Cruceru et al , 2020年
訳抜け防止モード: 2019年; Bachmann et al, 2020年; Grattarola et al, 2020年) 空間の直積(Gu et al)を考えることによって幾何学を豊かにする 2019年; Tifrea et al, 2019年; Skopek et al, 2020年) あるいは、グラフマン多様体や対称正定値行列(SPD)の空間を、表現能力の間のトレードオフとして使う。 空間の計算的トラクタビリティ(Huang & Gool)は 2017 ; Huang et al, 2018 ; Cruceru et al, 2020 ) .
0.87
A unified framework in which to encompass these various examples is still missing. これらの様々な例を包含する統一フレームワークはまだ欠落している。 0.71
In this work, we propose the systematic use of symmetric spaces in representation learning: this is a class comprising all the aforementioned spaces. 本研究では,表現学習における対称空間の体系的利用を提案する。
訳抜け防止モード: 本研究では,表現学習における対称空間の体系的利用を提案する。 上述のすべての空間からなるクラスである。
0.77
Symmetric spaces are Riemannian manifolds with rich symmetry groups which makes them algorithmically tractable. 対称空間はリッチ対称性群を持つリーマン多様体であり、アルゴリズム的に取り込むことができる。 0.61
They have a compound geometry that simultaneously contains Euclidean as well as hyperbolic or spherical subspaces, allowing them to automatically adapt to dissimilar features in the graph. それらは双曲部分空間や球面部分空間と同様にユークリッドを含む複合幾何学を持ち、グラフの異なる特徴に自動的に適応することができる。 0.77
We develop a general framework to choose a Riemannian symmetric space and implement the mathematical tools required to learn graph embeddings (§2). リーマン対称空間を選択するための一般的な枠組みを開発し、グラフ埋め込みを学習するために必要な数学的ツールを実装する。 0.65
Our systematic view 体系的視点 0.64
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
enables us to introduce the use of Finsler metrics integrated with a Riemannian optimization scheme as a new method to achieve graph representations. グラフ表現を実現する新しい方法として、リーマン最適化スキームと統合したfinslerメトリクスの導入を可能にする。 0.75
Moreover, we use a vectorvalued distance function on symmetric spaces to develop a new tool for the analysis of the structural properties of the embedded graphs. さらに、対称空間上のベクトル値距離関数を用いて、埋め込みグラフの構造特性を解析するための新しいツールを開発する。 0.80
To demonstrate a concrete implementation of our general framework, we choose Siegel spaces (Siegel, 1943); a family of symmetric spaces that has not been explored in geometric deep learning, despite them being among the most versatile symmetric spaces of non-positive curvature. 一般フレームワークの具体的実装を示すために、非正曲率の最も多目的な対称空間であるにもかかわらず、幾何学的深層学習において探索されていない対称空間の族であるジーゲル空間(Siegel, 1943)を選択する。 0.72
Key features of Siegel spaces are that they are matrix versions of the hyperbolic plane, they contain many products of hyperbolic planes as well as copies of SPD as submanifolds, and they support Finsler metrics that induce the (cid:96)1 or the (cid:96)∞ metric on the Euclidean subspaces. シーゲル空間の重要な特徴は、それらは双曲平面の行列版であり、双曲平面の多くの積と部分多様体としてのSPDのコピーを含み、ユークリッド部分空間上の (cid:96)1 あるいは (cid:96)∞ 計量を誘導するフィンスラー計量をサポートすることである。 0.70
As we verify in experiments, these metrics are well suited to embed graphs of mixed geometric features. 実験で検証したように、これらの指標は混合幾何学的特徴のグラフを埋め込むのに適している。 0.65
This makes Siegel spaces with Finsler metrics an excellent device for embedding complex networks without a priori knowledge of their internal structure. これにより、フィンスラー測度を持つジーゲル空間は、内部構造を事前に知ることなく複雑なネットワークを埋め込む優れたデバイスとなる。 0.62
Siegel spaces are realized as spaces of symmetric matrices with coefficients in the complex numbers C. By combining their explicit models and the general structure theory of symmetric spaces with the Takagi factorization (Takagi, 1924) and the Cayley transform (Cayley, 1846), we achieve a tractable and automatic-differenti able algorithm to compute distances in Siegel spaces (§4). それらの明示的モデルと対称空間の一般構造理論と高木因子化(高木、1924年)とケイリー変換(ケイリー、1846年)を組み合わせることにより、シーゲル空間における距離を計算するための抽出可能かつ自動微分可能なアルゴリズムが達成される。
訳抜け防止モード: シーゲル空間は複素数 C の係数を持つ対称行列の空間として実現される。それらの明示的モデルと対称空間の一般構造理論と高木因子化(高木、1924年)を組み合わせることにより、 そしてケイリー変換 (Cayley, 1846 ) は、抽出可能かつ自動微分可能なアルゴリズムを実現する。 シーゲル空間における距離を計算する( > 4 )。
0.73
This allows us to learn embeddings through Riemannian optimization (Bonnabel, 2011), which is easily parallelizable and scales to large datasets. これにより、リーマン最適化(Bonnabel, 2011)を通じて埋め込みを学習することができる。
訳抜け防止モード: これにより、リーマン最適化(Bonnabel, 2011)を通じて埋め込みを学ぶことができる。 並列化が容易で、大規模なデータセットにスケールできます。
0.61
Moreover, we highlight the properties of the Finsler metrics on these spaces (§3) and integrate them with the Riemannian optimization tools. さらに,これらの空間上のフィンスラー計量の特性を浮き彫りにし,それらをリーマン最適化ツールと統合する。 0.66
We evaluate the representation capacities of the Siegel spaces for the task of graph reconstruction on real and synthetic datasets. 実データと合成データを用いたグラフ再構成作業において, シーゲル空間の表現能力を評価する。 0.73
We find that Siegel spaces endowed with Finsler metrics outperform Euclidean, hyperbolic, Cartesian products of these spaces and SPD in all analyzed datasets. シーゲル空間にはフィンスラー計量が与えられ、これらの空間のユークリッド、双曲的、デカルト的積を上回り、すべての分析データセットでspdが与えられる。 0.50
These results manifest the effectiveness and versatility of the proposed approach, particularly for graphs with varying and intricate structures. これらの結果は,提案手法の有効性と汎用性,特に構造が多様で複雑なグラフについて示している。 0.72
To showcase potential applications of our approach in different graph embedding pipelines, we also test its capabilities for recommender systems and node classification. 異なるグラフ埋め込みパイプラインにおけるアプローチの可能性を示すために、推奨システムとノード分類のためのその機能をテストする。 0.76
We find that our models surpass competitive baselines (constantcurvature, products thereof and SPD) for several real-world datasets. 我々のモデルは、いくつかの実世界のデータセットの競争ベースライン(コンスタンス、製品、SPD)を上回ります。 0.63
Related Work: Riemannian manifold learning has regained attention due to appealing geometric properties that allow methods to represent non-Euclidean data arising in several domains (Rubin-Delanchy, 2020). 関連する仕事: リーマン多様体の学習は、いくつかの領域(Rubin-Delanchy, 2020)で生じる非ユークリッド的データを表現する方法が魅力ある幾何学的性質によって、注目を集めている。 0.55
Our systematic approach to symmetric spaces comprises embeddings in hyperbolic 対称空間に対する我々の体系的アプローチは双曲的埋め込みを含む 0.70
spaces (Chamberlain et al , 2017; Ganea et al , 2018; Nickel & Kiela, 2018; L´opez et al , 2019), spherical spaces (Meng et al , 2019; Defferrard et al , 2020), combinations thereof (Bachmann et al , 2020; Grattarola et al , 2020; Law & Stam, 2020), Cartesian products of spaces (Gu et al , 2019; Tifrea et al , 2019), Grassmannian manifolds (Huang et al , 2018) and the space of symmetric positive definite matrices (SPD) (Huang & Gool, 2017; Cruceru et al , 2020), among others. 空間 ( Chamber et al , 2017; Ganea et al , 2018; Nickel & Kiela, 2018; L ́opez et al , 2019) 球面空間 (Meng et al , 2019; Defferrard et al , 2020) の組み合わせ (Bachmann et al , 2020; Grattarola et al , 2020; Law & Stam, 2020) 空間のカルテ的積 (Gu et al , 2019; Tifrea et al , 2019) グラスマン多様体 (Huang et al , 2018) および対称正定値行列 (SPD) の空間 (Huang & Gool, 2017; Cruce et al , 2020) などである。 0.81
We implement our method on Siegel spaces. 我々はジーゲル空間上での手法を実装した。 0.44
To the best of our knowledge, we are the first work to apply them in Geometric Deep Learning. 私たちの知る限りでは、幾何学的深層学習にそれらを応用した最初の仕事です。 0.70
Our general view allows us to to endow Riemannian symmetric spaces with Finsler metrics, which have been applied in compressed sensing (Donoho & Tsaig, 2008), for clustering categorical distributions (Nielsen & Sun, 2019), and in robotics (Ratliff et al , 2020). 我々の一般的な見解は、圧縮センシング (Donoho & Tsaig, 2008) やクラスタリングカテゴリー分布 (Nielsen & Sun, 2019) 、ロボット工学 (Ratliff et al , 2020) に応用されたリーマン対称空間にフィンスラー測度を付与することを可能にする。 0.76
We provide strong experimental evidence that supports the intuition on how they offer a less distorted representation than Euclidean metrics for graphs with different structure. 異なる構造を持つグラフに対するユークリッド計量よりも歪みの少ない表現を提供する方法の直観を支持する強力な実験的証拠を提供する。 0.74
With regard to optimization, we derive the explicit formulations to employ a generalization of stochastic gradient descent (Bonnabel, 2011) as a Riemannian adaptive optimization method (B´ecigneul & Ganea, 2019). 最適化に関して、確率的勾配降下(bonnabel, 2011)をリーマン適応最適化法(b ́ecigneul & ganea, 2019)として一般化する明示的な定式化を導出する。 0.82
2. Symmetric Spaces for Embedding 2. 埋め込みのための対称空間 0.76
Problems Riemannian symmetric spaces (RSS) are Riemannian manifolds with large symmetry groups, which makes them amenable to analytical tools as well as to explicit computations. 問題 リーマン対称空間 (rss) は、大きな対称群を持つリーマン多様体であり、解析ツールだけでなく明示的な計算もできる。 0.70
A key feature of (non-compact) RSS is that they offer a rich combination of geometric features, including many subspaces isometric to Euclidean, hyperbolic spaces and products thereof. 非コンパクトなrssの重要な特徴は、ユークリッド空間、双曲空間、それらの積に対する多くの部分空間を含む幾何学的特徴の豊富な組み合わせを提供することである。 0.67
This makes them an excellent target tool for learning embeddings of complex networks without a priori knowledge of their internal structure. これにより、内部構造を事前に知ることなく複雑なネットワークの埋め込みを学習できる優れたターゲットツールとなる。 0.82
Figure 2. Above, from left to right: the unit spheres for the (cid:96)1, (cid:96)2 (Euclidean), and (cid:96)∞ metrics on the plane. 図2。 上から左から右へ: (cid:96)1, (cid:96)2 (ユークリッド) と (cid:96)∞ の平面上の単位球面。 0.75
Below: Distance minimizing geodesics are not necessarily unique in Finsler geometry. 以下: 距離最小測地線はフィンスラー幾何学において必ずしも一意ではない。 0.52
The two paths shown have the same (minimal) (cid:96)1 length. 2つの経路は同じ(最小) (cid:96)1 である。 0.75
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
√ First, we introduce two aspects of the general theory of RSS to representation learning: Finsler distances and vectorvalued distances. √ まず、表現学習にrssの一般理論の2つの側面、すなわちフィンスラー距離とベクトル値距離を導入する。 0.75
These give us, respectively, a concrete method to obtain better graph representations, and a new tool to analyze graph embeddings. これらはそれぞれ、より良いグラフ表現を得るための具体的な方法と、グラフ埋め込みを解析するための新しいツールを提供する。 0.73
Then, we describe our general implementation framework for RSS. 次に、RSSの汎用実装フレームワークについて述べる。 0.50
Finsler Distances: Riemannian metrics are not well adapted to represent graphs. フィンスラー距離:リーマン計量はグラフを表現するのにうまく適応していない。 0.55
For example, though a two dimensional grid intuitively looks like a plane, any embedding of it in the Euclidean plane R2 necessarily distorts some distances by a factor of at least 2. 例えば、2次元の格子は直観的には平面のように見えるが、ユークリッド平面 r2 への埋め込みは少なくとも 2 の係数で距離を歪ませる。 0.67
This is due to the fact that while in the Euclidean plane length minimizing paths (geodesics) are unique, in graphs there are generally several shortest paths (see Figure 2). これはユークリッド平面長において経路 (geodesics) が一意であるのに対し、グラフでは一般に最も短い経路がいくつか存在するためである(図2参照)。 0.86
Instead, it is possible to find an abstract isometric embedding of the grid in R2 if the latter is endowed with the (cid:96)1 (or taxicab) metric. 代わりに、後者が (cid:96)1 (または taxicab) 計量で与えられる場合、R2 に格子の抽象等尺埋め込みを見つけることができる。 0.71
This is a first example of a Finsler distance. これはフィンスラー距離の最初の例である。 0.79
Another Finsler distance on Rn that plays a role in our work is the (cid:96)∞ metric. 我々の研究で役割を果たすRn 上の別のフィンスラー距離は (cid:96)∞ 計量である。 0.71
See Appendix A.4 for a brief introduction. 簡単な紹介は appendix a.4 を参照。 0.65
RSS do not only support a Riemannian metric, but a whole family of Finsler distances with the same symmetry group (group of isometries). RSS はリーマン計量だけでなく、同じ対称性群(等距離群)を持つフィンスラー距離全体の族もサポートする。 0.70
For the reasons explained above, these Finsler metrics are more suitable to embed complex networks. 上記の理由から、これらのFinslerメトリクスは複雑なネットワークを埋め込むのに適している。 0.63
We verify these assumptions through concrete experiments in Section 5. 第5節では,これらの仮定を具体的実験によって検証する。 0.54
Since Finsler metrics are in general not convex, they are less suitable for optimization problems. フィンスラー計量は一般に凸ではないので、最適化問題には適さない。 0.67
Due to this, we propose to combine the Riemannian and Finsler structure, by using a Riemannian optimization scheme, with loss functions based on the Finsler metric. このため、リーマン最適化スキームを用いて、リーマン構造とフィンスラー構造を、フィンスラー計量に基づく損失関数と組み合わせることを提案する。 0.67
Vector-valued Distance: In Euclidean space, in the sphere or in hyperbolic space, the only invariant of two points is their distance. ベクトル値距離: ユークリッド空間、球面、双曲空間において、2点の唯一の不変量は距離である。 0.70
A pair of points can be mapped to any other pair of points iff their distance is the same. 一対の点は距離が同じであるような他の一対の点に写像することができる。 0.76
Instead, in a general RSS the invariant between two points is a distance vector in Rn, where n is the rank of the RSS. 代わりに、一般の RSS において、2つの点の間の不変量は Rn の距離ベクトルであり、n は RSS のランクである。 0.76
This is, two pairs of points can be separated by the same distance, but have different distance vectors. つまり、2つの対の点は同じ距離で分離できるが、異なる距離ベクトルを持つ。 0.74
This vector-valued distance gives us a new tool to analyze graph embeddings, as we illustrate in Section 6. このベクトル値距離は、セクション6で示すように、グラフ埋め込みを解析するための新しいツールを提供する。 0.78
The dimension of the space in which the vector-valued distance takes values in defines the rank of the RSS. ベクトル値距離が値を取る空間の次元は、RSSのランクを定義する。 0.63
Geometrically, this represents the largest Euclidean subspace which can be isometrically embedded (hence, hyperbolic and spherical spaces are of rank−1). 幾何学的には、これは等尺的に埋め込まれる最大のユークリッド部分空間を表す(hence, hyperbolic, sphere space is of rank−1)。 0.63
The symmetries of an RSS fixing such a maximal flat form a finite group — the Weyl group of the RSS. そのような極大平坦を固定する RSS の対称性は有限群(RSS のワイル群)を形成する。 0.75
In the example of Siegel spaces discussed below, the Weyl group acts by permutations and reflections of the coordinates, allowing us to canonically represent each vector-valued distance as an n-tuple of nonincreasing positive numbers. 下記のジーゲル空間の例では、ワイル群は座標の置換と反射によって作用し、各ベクトル値距離を非増加正数の n-タプルとして正に表現することができる。 0.69
Such a uniform choice of standard representative for all vector-valued distances is a fundamental domain for this group action, known as a Weyl すべてのベクトル値距離の標準代表のそのような一様選択は、ワイルとして知られるこの群作用の基本領域である。 0.72
Toolkit 1 Computing Distances 1: Input from Model: Choice of basepoint m, maximal flat F , identification φ : F → Rn, choice of Weyl Chamber C ⊂ Rn, and Finsler norm (cid:107) · (cid:107)F on Rn. Toolkit 1 Computing Distances 1: Input from Model: Choice of basepoint m, maximal flat F , Identification φ : F → Rn, choice of Weyl Chamber C ? Rn, and Finsler norm (cid:107) · (cid:107)F on Rn. 0.91
2: Given p, q ∈ M: 3: Compute g ∈ G such that g(p) = m and g(q) ∈ F . 2: 与えられた p, q ∈ M: 3: g(p) = m かつ g(q) ∈ F となるような g ∈ G を計算する。 0.92
4: Compute v(cid:48) = φ(g(q)) ∈ Rn, and h ∈ G the Weyl group 4: 計算 v(cid:48) = φ(g(q)) ∈ Rn で、h ∈ G はワイル群である。 0.86
element such that h(v(cid:48)) = v ∈ C. h(v(cid:48)) = v ∈ C となるような元。 0.74
5: The Vector-valued Distance (VVD) is vDist(p, q) = v. i v2 i . 5: ベクトル値距離 (vvd) は vdist(p, q) = v. i v2 i である。 0.85
7: The Finsler Distance (FD) is dF (p, q) = (cid:107)v(cid:107)F . 7: フィンスラー距離 (FD) は dF (p, q) = (cid:107)v(cid:107)F である。 0.86
6: The Riemannian Distance (RD) is dR(p, q) =(cid:112)(cid:80) 8: For a product(cid:81) Mi, the VVD is the vector (vDist(pi, qi)) theorem: dX (p, q)2 =(cid:80) 6: リーマン距離 (RD) は dR(p, q) = (cid:112) (cid:80) 8: 積 (cid:81) Mi に対して、VVD はベクトル (vDist(pi, qi)) 定理: dX (p, q)2 = (cid:80) である。 0.89
of VVDs for each Mi. それぞれの Mi に対する VVD の値です。 0.62
The RD, FD satisfy the pythagorean i dXi (pi, qi)2, for X ∈ {R, F}. RD, FD は X ∈ {R, F} に対してピタゴラス i dXi (pi, qi)2 を満たす。 0.77
chamber for the RSS. RSSのためのチャンバー。 0.80
Implementation Schema: The general theory of RSS not only unifies many spaces previously applied in representation learning, but also systematises their implementation. 実装スキーマ:rssの一般理論は、表現学習に適用される多くの空間を統一するだけでなく、それらの実装を体系化する。 0.62
Using standard tools of this theory, we provide a general framework to implement the mathematical methods required to learn graph embeddings in a given RSS. この理論の標準的なツールを用いて、与えられたRSSにグラフ埋め込みを学習するために必要な数学的手法を実装するための一般的なフレームワークを提供する。
訳抜け防止モード: この理論の標準的な道具を使って 一般的な枠組みで 所定のrssにおけるグラフ埋め込みを学ぶために必要な数学的手法を実装する。
0.70
Step 1, choosing an RSS: We may utilize the classical theory of symmetric spaces to inform our choice of RSS. ステップ1: RSSを選択する: 対称空間の古典理論を利用してRSSの選択を知らせる。 0.72
Every symmetric space M can be decomposed into an (almost) product M = M1 × ··· × Mk of irreducible symmetric spaces. すべての対称空間 m は(ほぼ)積 m = m1 × ···· × mk に分解することができる。 0.78
Apart from twelve exceptional examples, there are eleven infinite families irreducible symmetric spaces — see Helgason (1978) for more details, or Appendix A, Table 6. 12の例外的な例とは別に、11の無限族が非既約対称空間が存在する(詳細は Helgason (1978) や Appendix A, Table 6 を参照)。 0.78
Each family of irreducible symmetric space has a distinct family of symmetry groups, which in turn determines many mathematical properties of interest (for instance, the symmetry group determines the shape of the Weyl chambers, which determines the admissible Finsler metrics). 既約対称空間の各族は異なる対称群の族を持ち、したがって多くの興味の数学的性質を決定する(例えば、対称性群はワイル室の形状を決定し、これは許容されるフィンスラー計量を決定する)。 0.82
Given a geometric property of interest, the theory of RSS allows one to determine which (if any) symmetric spaces enjoy it. 興味の幾何学的性質が与えられたとき、RSSの理論はどの対称空間がそれを楽しむかを決定できる。 0.75
For example, we choose Siegel spaces also because they admit Finsler metrics induced by the (cid:96)1 metric on flats, which agrees with the intrinsic metric on grid-like graphs. 例えば、シーゲル空間は、平面上の (cid:96)1 計量によって誘導されるフィンスラー計量(英語版)(finsler metrics)が、格子状グラフ上の本質的な計量と一致することも認める。 0.54
Step 2, choosing a model of the RSS: Having selected an RSS, we must also select a model: a space M representing its points equipped with an action of its symmetry group G. Such a choice is of practical, rather than theoretical concern: the points of M should be easy to work with, and the symmetries of G straightforward to compute and apply. ステップ2: rss のモデルを選択する: rss を選択した場合には、モデルも選択しなければならない: 対称性群 g の作用を備えたその点を表す空間 m: そのような選択は、理論上の懸念よりも実用的である: m の点は扱いやすく、g の対称性は計算や適用が容易である。 0.77
Each RSS may have many already-understood models in the literature to select from. それぞれのrssには、文献にすでに理解されている多くのモデルがある。 0.53
In our example of Siegel spaces, we implement two distinct models, selected because both their points and symmetries may be encoded by n × n matrices. シーゲル空間の例では、点と対称性の両方が n × n 行列で符号化されるので、2つの異なるモデルを実装する。 0.64
See Section 3. Implementing a product of symmetric spaces requires implementing each factor simultaneously. 第3節参照。 対称空間の積を実装するには、各因子を同時に実装する必要がある。 0.57
Given models 与えられたモデル 0.63
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
Toolkit 2 Computing Local Geometry 1: Input From Model: Geodesic reflections σp ∈ G, the metric tensor (cid:104)·,·(cid:105), basepoint m ∈ M, orthogonal decomposition stab(m) ⊕ p = g, and identification φ : TmM → p. 2: Given f : M → R, a geodesic γ, or v ∈ TmM respectively: 3: The Riemannian Gradient of f is computed from the metric Toolkit 2 Computing Local Geometry 1: Input From Model: Geodesic Reflects σp ∈ G, metric tensor (cid:104)·,·(cid:105), basepoint m ∈ M, orthogonal decomposition stab(m) > p = g, and identification φ : TmM → p. 2: given f : M → R, a geodesic γ, or v ∈ TmM: 3: Riemannian Gradient of f is computeed from the metric。 0.83
4: Parallel Transport along γ is achieved by the differentials 4: γ に沿った平行移動は微分によって達成される 0.63
tensor by solving (cid:104)gradR(f ),−(cid:105) = df (−) (dτt)γ(t0) of transvections τt = σγ(t/2)σγ(t0) along γ. trix exponential g = exp(φ(v)) ∈ G applied to m. テンソル (cid:104)gradr(f ),−(cid:105) = df (−) (dτt)γ(t0) of transvections τt = σγ(t/2)σγ(t0) along γ. trix exponential g = exp(φ(v)) ∈ g である。 0.91
6: For a product(cid:81) Mi the Riemannian gradient, Parallel Trans- 6:積(cid:81) mi に対して、リーマン勾配、平行トランス- 0.71
5: The Riemannian Exponential expR 5:リーマン指数expR 0.56
m(v) = g(m) is the ma- m(v) = g(m) は ma である 0.86
port, and Exponential map are computed component-wise. PortとExponential Mapはコンポーネント単位で計算される。 0.72
M1, . . . , Mk with symmetry groups G1, . M1。 . . 対称群 G1 を持つ Mk である。 0.79
. . Gk, the product M = M1 × ··· × Mk has as its points m = (m1, . . . Gk の積 M = M1 × ··· × Mk はその点 m = (m1, ) である。 0.84
. . , mk) the k−tuples with mi ∈ Mi, with the group G = G1 × ··· × Gk acting componentwise. . . mk) 群 g = g1 × ···· × gk を成分的に作用させることで、k-タプルは mi ∈ mi と一致する。 0.77
This general implementation of products directly generalizes products of constant curvature spaces. この積の一般実装は、定曲率空間の積を直接一般化する。 0.52
Step 3, computing distances: Given a choice of RSS, the fundamental quantity to compute is a distance function on M, typically used in the loss function. ステップ3 計算距離:RSSを選択すると、計算の基本量はM上の距離関数であり、一般的に損失関数で使用される。 0.76
In contrast to general Riemannian manifolds, the rich symmetry of RSS allows this computation to be factored into a sequence of geometric steps. 一般リーマン多様体とは対照的に、RSSのリッチ対称性は、この計算を幾何ステップの列に分解することができる。 0.67
See Toolkit 1 for a schematic implementation using data from the standard theory of RSS (choice of maximal flat, Weyl chamber, and Finsler norm) and Algorithm 1 for a concrete implementation in the Siegel spaces. rss(maximal flat, weyl chamber, finsler norm)の標準理論のデータを用いたスキーマ実装のためのツールキット1と、シーゲル空間における具体的な実装のためのアルゴリズム1を参照。 0.77
Step 4, computing gradients: To perform gradient-based optimization, the Riemannian gradient of these distance functions is required. ステップ4: 勾配に基づく最適化を行うには、これらの距離関数のリーマン勾配が必要である。 0.79
Depending on the Riemannian optimization methods used, additional local geometry including parallel transport and the exponential map may be useful (Bonnabel, 2011; B´ecigneul & Ganea, 2019). 使用するリーマン最適化法によって、平行移動や指数写像を含む追加の局所幾何は有用である(bonnabel, 2011; b ́ecigneul & ganea, 2019)。 0.68
See Toolkit 2 for the relationships of these components to elements of the classical theory of RSS. これらのコンポーネントとrssの古典的な理論の要素との関係についてツールキット2を参照。 0.71
See Appendix A and B for a review of the general theory relevant to this schema, and for an explicit implementation in the Siegel spaces. このスキーマに関連する一般理論のレビューや、ジーゲル空間における明示的な実装については、付録 a と b を参照。 0.69
3. Siegel Space We implement the general aspects of the theory of RSS outlined above in the Siegel spaces HypSPDn (Siegel, 1943), a versatile family of non-compact RSS, which has not yet been explored in geometric deep learning. 3. シーゲル空間(siegel space) 我々は、上述のジーゲル空間hypspdn(siegel, 1943)におけるrss理論の一般的な側面を実装している。
訳抜け防止モード: 3. シーゲル空間 上述のRSS理論の一般的な側面をシーゲル空間 HypSPDn ( Siegel, 1943) に実装する。 非コンパクトなRSSの万能なファミリー 幾何学的な深層学習ではまだ研究されていません
0.77
The simplicity and the versatility of the Siegel space make it particularly suited for representation learning. シーゲル空間の単純さと汎用性は、表現学習に特に適している。 0.58
We highlight some of its main features. その主な特徴をいくつか強調する。 0.76
Models: HypSPDn admits concrete and tractable matrix models generalizing the Poincar´e disk and the upper half モデル: HypSPDn は Poincar ́e 円板と上半分を一般化する具体的およびトラクタブル行列モデルを認める 0.75
plane model of the hyperbolic space. 双曲空間の平面モデルです 0.56
Both are open subsets of the space Sym(n, C) of symmetric n × n-matrices over C. HypSPDn has n(n + 1) dimensions. どちらも c 上の対称 n × n-行列の空間 sym(n, c) の開部分集合である。 0.54
The bounded symmetric domain model for HypSPDn generalizes the Poincar´e disk. HypSPDn の有界対称領域モデルは Poincar ́e ディスクを一般化する。 0.69
It is given by:1 Bn := {Z ∈ Sym(n, C)| Id − Z∗Z >> 0}; 1で与えられる。 Bn := {Z ∈ Sym(n, C)| Id − Z∗Z >> 0}; 0.76
(1) The Siegel upper half space model for HypSPDn generalizes the upper half plane model of the hyperbolic plane by: Sn := {Z = X + iY ∈ Sym(n, C)| Y >> 0}. (1) HypSPDn のジーゲル上半平面モデル(英語版)は、双曲平面の上半平面モデルを Sn := {Z = X + iY ∈ Sym(n, C)| Y >> 0} で一般化する。 0.80
(2) An explicit isomorphism from Bn to Sn is given by the Cayley transform, a matrix analogue of the familiar map from the Poincare disk to upper half space model of the hyperbolic plane: 2) Bn から Sn への明示的な同型は、ポインケア円板から双曲平面の上半空間モデルへの親和写像の行列類似であるケイリー変換によって与えられる。 0.67
Z (cid:55)→ i(Z + Id)(Z − Id)−1. Z (cid:55) → i(Z + Id)(Z − Id)−1。 0.94
Hyperbolic Plane over SPD: The Siegel space HypSPDn contains SPDn as a totally geodesic submanifold, and in fact, it can be considered as a hyperbolic plane over SPD. SPD 上の双曲平面 シーゲル空間 HypSPDn は SPDn を全測地部分多様体として含み、実際は、SPD 上の双曲平面と見なすことができる。 0.72
The role that real lines play in the hyperbolic plane, in HypSPDn is played by SPDn. 双曲平面において実線が果たす役割は、HypSPDn において SPDn によって演じられる。 0.73
This is illustrated in Figure 3b. これは図3bに示されています。 0.61
Totally Geodesic Subspaces: The Siegel space HypSPDn contains n-dimensional Euclidean subspaces, products of n-copies of hyperbolic planes, SPDn as well as products of Euclidean and hyperbolic spaces as totally geodesic subspaces (see Figure 3). 全測地部分空間: シーゲル空間 HypSPDn は n-次元ユークリッド部分空間、双曲平面の n-コピー積、SPDn、および全測地部分空間としてのユークリッド空間と双曲空間の積を含む(図3)。 0.75
It thus has a richer pattern of submanifolds than, for example, SPD. 従って、サブ多様体のパターンは、例えばSPDよりもリッチである。 0.67
In particular, HypSPDn contains more products of hyperbolic planes than SPDn: in HypSPDn we need 6 real dimension to contain H2 × H2 and 12 real dimension to contain (H2)3, whereas in SPDn we would need 9 (resp. 特に、HypSPDn は SPDn よりも多くの双曲平面の積を含んでいる:HypSPDn では H2 × H2 を含む6次元と (H2)3 を含む12次元を含む6次元が必要であるが、SPDn では 9 (resp) を必要とする。 0.76
20) dimensions for this. 20) これの寸法。 0.68
Finsler Metrics: The Siegel space supports a Finsler metric F1 that induces the (cid:96)1 metric on the Euclidean subspaces. フィンスラー計量: ジーゲル空間はユークリッド部分空間上の (cid:96)1 計量を誘導するフィンスラー計量 f1 をサポートする。 0.67
As already remarked, the (cid:96)1 metric is particularly suitable for representing product graphs, or graphs that contain product subgraphs. すでに述べたように、(cid:96)1メトリックは特に製品グラフや製品サブグラフを含むグラフを表現するのに適している。 0.77
Among all possible Finsler metrics supported by HypSPDn, we focus on F1 and F∞ (the latter induces the (cid:96)∞ metric on the flat). HypSPDn がサポートするすべてのフィンスラー測度のうち F1 と F∞ に焦点を当てる(後者は平面上の (cid:96)∞ 測度を誘導する)。 0.73
Scalability: Like all RSS, HypSPDn has a dual – an RSS with similar mathematical properties but reversed curvature – generalizing the duality of H2 and S2. 拡張性: 他のRSSと同様、HypSPDnは二重性を持つ – 同様の数学的特性を持つが、逆曲率を持つRSS – H2とS2の双対性を一般化する。
訳抜け防止モード: 拡張性 : 他のRSSと同様、HypSPDnは二重性を持つ。 逆曲率... H2 と S2 の双対性を一般化する。
0.67
We focus on HypSPDn over its dual for scalability reasons. スケーラビリティ上の理由から,HypSPDnの2つに注目する。 0.68
The dual is a nonnegatively curved RSS of finite diameter, and thus does not admit isometric embeddings of arbitrarily large graphs. 双対は有限直径の非負曲線RSSであり、したがって任意の大きなグラフの等長埋め込みは認めない。 0.75
HypSPDn, being nonpositively curved and infinite diameter, does not suffer from this restriction. 非正の曲線と無限の直径を持つHypSPDnは、この制限を負わない。 0.75
See Appendix B.10 for details on its implementation and experiments with the dual. このデュアルの実装と実験の詳細は、 appendix b.10 を参照してください。 0.66
1For a real symmetric matrix Y ∈ Sym(n, R) we write Y >> 1 実対称行列 y ∈ sym(n, r) に対して y >> と書く。 0.78
0 to indicate that Y is positive definite. 0 は Y が正定値であることを示す。 0.73
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
(a) Bounded Domain Model Bn (a)境界ドメインモデルBn 0.70
(b) Siegel Upper Half Space Sn (b)シーゲル上半身空間Sn 0.60
Figure 3. a) Every point of the disk is a complex symmetric n-dimensional matrix. 図3. a) 円板のすべての点は複素対称 n-次元行列である。 0.78
b) A hyperbolic plane over SPD. b) SPD上の双曲面。 0.56
S2 is a 6 dimensional manifold, the green lines represent totally geodesic submanifolds isometric to SPD that intersect in exactly one point. S2 は 6 次元多様体であり、緑の直線はちょうど 1 つの点で交わる SPD に等角的に全測地的部分多様体を表す。 0.66
In dimension 2, SPD is isometric to the product of a hyperbolic plane and the line 次元 2 では、SPD は双曲平面と直線の積と等角的である。 0.66
4. Implementation A complex number z ∈ C can be written as z = x + iy where x, y ∈ R and i2 = −1. 4. 実装 複素数 z ∈ C は x, y ∈ R と i2 = −1 のとき z = x + iy と書くことができる。 0.87
Analogously a complex symmetric matrix Z ∈ Sym(n, C) can be written as Z = X + iY , where X = (cid:60)(Z), Y = (cid:61)(Z) ∈ Sym(n, R) are symmetric matrices with real entries. 類似して複素対称行列 Z ∈ Sym(n, C) は Z = X + iY と書くことができ、X = (cid:60)(Z), Y = (cid:61)(Z) ∈ Sym(n, R) は実エントリを持つ対称行列である。 0.88
We denote by Z∗ = X − iY the complex conjugate matrix. Z∗ = X − iY で複素共役行列を表す。 0.65
Distance Functions: To compute distances we apply either Riemannian or Finsler distance functions to the vectorvalued distance. 距離関数: 距離を計算するために、ベクトル値距離にリーマン距離関数またはフィンスラー距離関数を適用する。 0.70
These computations are described in Algorithm 1, which is a concrete implementation of Toolkit 1. これらの計算は、ツールキット1の具体的な実装であるアルゴリズム1で記述される。 0.70
Specifically, step 2 moves one point to the basepoint, step 4 moves the other into our chosen flat, step 5 identifies this with Rn and step 6 returns the vector-valued distance, from which all distances are computed. 具体的には、ステップ2が1点をベースポイントに移動し、ステップ4がもう一方を選択したフラットに移動し、ステップ5がrnでこれを識別し、ステップ6がベクトル値距離を返します。 0.80
We employ the Takagi factorization to obtain eigenvalues and eigenvectors of complex symmetric matrices in a tractable manner with automatic differentiation tools (see Appendix B.2). 高木因子化を用いて、複素対称行列の固有値と固有ベクトルを自動微分ツールで抽出可能な方法で得る(Appendix B.2)。 0.68
Complexity of Distance Algorithm: Calculating distance between two points Z1, Z2 in either Sn or Bn spaces implies computing multiplications, inversions and diagonalizations 距離アルゴリズムの複素性: Sn または Bn 空間における二点 Z1, Z2 間の距離を計算することは、計算乗算、反転、対角化を意味する。
訳抜け防止モード: 距離アルゴリズムの複雑さ Sn または Bn 空間における二点 Z1, Z2 間の距離を計算する 計算の乗法 反転 対角化
0.85
of n × n matrices. n × n 行列である。 0.73
We find that the cost of the distance computation with respect to the matrix dimensions is O(n3). 行列次元に対する距離計算のコストは O(n3) であることが分かる。 0.64
We prove this in Appendix D. Riemannian Optimization with Finsler Distances: With the proposed matrix models of the Siegel space, we optimize objectives based on the Riemannian or Finsler distance functions in the embeddings space. Appendix D. Riemannian Optimization with Finsler Distances: The proposed matrix model of the Siegel space, we optimizations based on the Riemannian or Finsler distance function in the embeddeddings space。
訳抜け防止モード: フィンスラー距離を用いた近似D.リーマン最適化でこれを証明する。 The proposed matrix model of the Siegel space, we opt objectives based on the Riemannian or Finsler distance function in the embeddeddings space。
0.81
To overcome the lack of convexity of Finsler metrics, we combine the Riemannian and the Finsler structure, by using a Riemannian optimization scheme (Bonnabel, 2011) with a loss function based on the Finsler metric. フィンスラー計量の凸性の欠如を克服するために、リーマン最適化スキーム(bonnabel, 2011)とフィンスラー計量に基づく損失関数を用いてリーマン構造とフィンスラー構造を結合する。 0.70
In Algorithm 2 we provide a way to compute the Riemannian gradient from the Euclidean gradient obtained via automatic differentiation. アルゴリズム2では、自動微分によって得られるユークリッド勾配からリーマン勾配を計算する方法を提案する。 0.71
This is a direct implementation of Toolkit 2 Item 3. これは Toolkit 2 Item 3の直接的な実装です。 0.84
To constrain the embeddings to remain within the Siegel space, we utilize a projection from the ambient space to our model. 埋め込みをシーゲル空間に残すように制約するために、我々は周囲空間からモデルへの射影を利用する。 0.72
More precisely, given  and a point Z ∈ Sym(n, C), we compute a point ZS  ) close to the original point lying in the -interior of the model. より正確には、ある点 Z ∈ Sym(n, C) が与えられたとき、モデルの t 内にある元の点に近い点 ZS を計算する。 0.67
For Sn, starting from Z = X + iY we orthogonally diagonalize Y = K tDK, and then modify D = diag(di) by setting each diagonal entry to max{di, }. Sn の場合、Z = X + iY から Y = K tDK を直交的に対角化し、D = diag(di) を各対角積を max{di, >} に設定することで修正する。 0.78
An analogous projection is defined on the bounded domain Bn, see Appendix B.8. 類似の射影は有界領域 Bn 上で定義される。 0.46
 (resp. ZB は (resp)。 ZB 0.75
Algorithm 1 Computing Distances 1: Given two points Z1, Z2 ∈ Sn: アルゴリズム1 距離1:与えられた2点z1,z2 ∈ sn: 0.80
2: Define Z3 =(cid:112)(cid:61)(Z1 ) 2:Z3 =(cid:112)(cid:61)(Z1 )を定義する。 0.69
(Z2 − (cid:60)(Z1))(cid:11 2)(cid:61)(Z1) (Z2 − (cid:60)(Z1))(cid:11 2)(cid:61)(Z1) 0.81
−1 ∈ Sn 3: Define W = (Z3 − iId)(Z3 + iId)−1 ∈ Bn 4: Use the Takagi factorization to write W = KDK∗ for D −1 ∈ Sn 3: Define W = (Z3 − iId)(Z3 + iId)−1 ∈ Bn 4:Takagi factorization を用いて、D に対して W = KDK∗ を記述する。 0.83
−1 real diagonal, and K unitary. −1 真の対角線とKのユニタリ。 0.70
for di the diagonal entries of D. di は D の対角成分である。 0.62
5: Define vi = log 1+di 1−di 6: Order the vi so that v1 ≥ v2 ≥ ··· ≥ 0. vi = log 1+di 1−di 6: v1 ≥ v2 ≥ ··· ≥ 0 となるように vi を順序付ける。 0.78
The Vector-valued Distance is vDist(Z1, Z2) = (v1, v2, . ベクトル値 距離は vDist(Z1, Z2) = (v1, v2, ) である。 0.73
. . , vn). 7: The Riemannian distance is dR(Z1, Z2) :=(cid:112)(cid:80)n dF 1(Z1, Z2) :=(cid:80)n . . 、vn)。 7: リーマン距離は dR(Z1, Z2) :=(cid:112)(cid:80)n dF1(Z1, Z2) :=(cid:80)n である。 0.77
8: The Finsler distance i=1 vi. 8: フィンスラー距離i=1 vi。 0.84
9: The Finsler distance 9:フィンスラー距離 0.74
i . i=1 v2 (cid:96)1-metric (cid:96)∞-metric 私は... i=1 v2 (cid:96)1-metric (cid:96)∞-metric 0.48
inducing the inducing the 誘発する 誘発 はあ? 0.57
dF∞(Z1, Z2) := max{vi} = v1. dF∞(Z1, Z2) := max{vi} = v1。 0.92
is is Algorithm 2 Computing Riemannian Gradient 1: Given f : Sn → R and Z = X + iY ∈ Sn: 2: Compute the Euclidean gradient gradE(f ) at Z of f obtained 3: The Riemannian gradient is gradR(f ) = Y · gradE(f )· Y . は は アルゴリズム 2 リーマン勾配 1: f : Sn → R と Z = X + iY ∈ Sn: 2: f の Z におけるユークリッド勾配 gradE(f ) を計算する: リーマン勾配は gradR(f ) = Y · gradE(f )· Y である。 0.73
via automatic differentiation (see Appendix B.6). 自動微分 ( appendix b.6) を参照。 0.74
英語(論文から抽出)日本語訳スコア
4D GRID (625, 2000) 4D GRID(625, 2000) 0.95
Symmetric Spaces for Graph Embeddings TREE × TREE (225, 420) グラフ埋め込みのための対称空間 TREE × TREE(225, 420) 0.91
TREE × GRID (496, 1224) 木×格子(496,1224) 0.63
TREE (364, 363) 木 (364, 363) 0.69
Davg 11.24±0.00 25.23±0.05 11.24±0.00 18.74±0.01 11.24±0.00 11.27±0.01 5.92±0.06 0.01±0.00 11.28±0.01 7.32±0.16 0.39±0.02 ダヴグ(Davg) 11.24±0.00 25.23±0.05 11.24±0.00 18.74±0.01 11.24±0.00 11.27±0.01 5.92±0.06 0.01±0.00 11.28±0.01 7.32±0.16 0.39±0.02 0.26
mAP 100.00 63.74 100.00 78.47 100.00 100.00 99.61 100.00 100.00 97.92 100.00 mAP 100.00 63.74 100.00 78.47 100.00 100.00 99.61 100.00 100.00 97.92 100.00 0.44
Davg 3.92±0.04 0.54±0.02 1.19±0.04 0.65±0.02 1.79±0.02 1.35±0.02 1.23±0.28 0.76±0.02 1.27±0.05 1.51±0.13 0.77±0.02 ダヴグ(Davg) 3.92±0.04 0.54±0.02 1.19±0.04 0.65±0.02 1.79±0.02 1.35±0.02 1.23±0.28 0.76±0.02 1.27±0.05 1.51±0.13 0.77±0.02 0.26
mAP 42.30 100.00 100.00 100.00 55.92 78.53 99.56 91.57 74.77 99.73 94.64 mAP 42.30 100.00 100.00 100.00 55.92 78.53 99.56 91.57 74.77 99.73 94.64 0.44
Davg 9.81±0.00 17.21±0.21 9.20±0.01 13.02±0.91 9.23±0.01 9.13±0.01 4.81±0.55 0.81±0.08 9.24±0.13 8.70±0.87 0.90±0.08 Davg 9.81±0.00 17.21±0.21 9.20±0.01 13.02±0.91 9.23±0.01 9.13±0.01 4.81±0.55 0.81±0.08 9.24±0.13 8.70±0.87 0.90±0.08 0.19
mAP 83.32 83.16 100.00 88.01 99.73 99.92 99.28 100.00 99.22 96.40 100.00 mAP 83.32 83.16 100.00 88.01 99.73 99.92 99.28 100.00 99.22 96.40 100.00 0.44
Davg 9.78±0.00 20.59±0.11 9.30±0.04 8.61±0.03 8.83±0.01 8.68±0.02 3.31±0.06 1.08±0.16 8.74±0.09 4.26±0.26 1.28±0.16 Davg 9.78±0.00 20.59±0.11 9.30±0.04 8.61±0.03 8.83±0.01 8.68±0.02 3.31±0.06 1.08±0.16 8.74±0.09 4.26±0.26 1.28±0.16 0.19
mAP 96.03 75.67 98.03 97.63 98.49 98.03 99.95 100.00 98.12 99.70 100.00 mAP 96.03 75.67 98.03 97.63 98.49 98.03 99.95 100.00 98.12 99.70 100.00 0.44
(|V |,|E|) (|V |,|E|) 0.97
E20 H20 E10 × H10 H10 × H10 E20 H20 E10×H10×H10×H10 0.77
4 4 SPD6 S R S F∞ S F1 BR BF∞ BF1 4 4 SPD6 S R S F∞ S F1 BR BF∞ BF1 0.84
4 4 4 4 TREE (cid:5) GRIDS (775, 1270) Davg 3.86±0.02 14.56±0.27 2.15±0.05 1.08±0.06 1.56±0.02 1.45±0.09 10.88±0.19 1.03±0.00 2.88±0.32 6.55±1.77 1.09±0.03 4 4 4 4 TREE (cid:5) GRIDS (775, 1270) Davg 3.86±0.02 14.56±0.27 2.15±0.05 1.08±0.06 1.56±0.02 1.45±0.09 10.88±0.19 1.03±0.00 2.88±0.32 6.55±1.77±9±0.03 0.74
mAP 34.21 44.14 58.23 77.20 62.31 72.49 63.52 78.71 72.55 73.80 76.55 mAP 34.21 44.14 58.23 77.20 62.31 72.49 63.52 78.71 72.55 73.80 76.55 0.44
GRID (cid:5) TREES (775, 790) GRID (cid:5) TREES (775,790) 0.97
Davg 4.28±0.04 14.62±0.13 2.03±0.01 2.80±0.65 1.83±0.00 1.54±0.08 10.48±0.21 0.84±0.06 2.76±0.11 7.15±0.85 0.99±0.01 Davg 4.28±0.04 14.62±0.13 2.03±0.01 2.80±0.65 1.83±0.00 1.54±0.08 10.48±0.21 0.84±0.06 2.76±0.11 7.15±0.85 0.99±0.01 0.19
mAP 27.50 30.28 97.88 84.88 72.17 76.66 72.53 80.52 96.29 90.51 81.82 mAP 27.50 30.28 97.88 84.88 72.17 76.66 72.53 80.52 96.29 90.51 81.82 0.44
Table 1. Results for synthetic datasets. 表1。 合成データセットの結果。 0.76
Lower Davg is better. 下部davgの方が良いです。 0.62
Higher mAP is better. より高いmAPの方がよい。 0.67
Metrics are given as percentage. メトリクスはパーセンテージとして与えられる。 0.51
5. Graph Reconstruction We evaluate the representation capabilities of the proposed approach for the task of graph reconstruction.2 Setup: We embed graph nodes in a transductive setting. 5. グラフ再構成我々は,提案手法によるグラフ再構成タスクの表現能力を評価した。2: グラフノードをトランスダクティブな設定に組み込む。 0.85
As input and evaluation data we take the shortest distance in the graph between every pair of connected nodes. 入力および評価データとして、接続された各ノード間のグラフの最短距離を取る。 0.84
Unlike previous work (Gu et al , 2019; Cruceru et al , 2020) we do not apply any scaling, neither in the input graph distances nor in the distances calculated on the space. 以前の仕事(gu et al , 2019; cruceru et al , 2020)とは異なり、私たちは、入力グラフ距離でも、空間で計算された距離でも、いかなるスケーリングも適用しません。 0.77
We experiment with the loss proposed in Gu et al (2019), which minimizes the relation between the distance in the space, compared to the distance in the graph, and captures the average distortion. 我々は Gu et al (2019) で提案された損失を実験し、空間内の距離とグラフ内の距離との関係を最小化し、平均歪みを捉える。 0.70
We initialize the matrix embeddings in the Siegel upper half space by adding small symmetric perturbations to the matrix basepoint iId. 行列基底点 iId に小さな対称摂動を加えることにより、シーゲル上半空間への行列埋め込みを初期化する。 0.74
For the Bounded model, we additionally map the points with the Cayley transform (see Appendix B.7). 境界モデルに対しては、さらにケイリー変換で点を写像する(Appendix B.7参照)。 0.61
In all cases we optimize with RSGD (Bonnabel, 2011) and report the average of 5 runs. いずれの場合も、RSGD(Bonnabel, 2011)で最適化し、平均5ランを報告します。 0.70
Baselines: We compare our approach to constant-curvature baselines, such as Euclidean (E) and hyperbolic (H) spaces (we compare to the Poincar´e model (Nickel & Kiela, 2017) since the Bounded Domain model is a generalization of it), Cartesian products thereof (E × H and H × H) (Gu et al , 2019), and symmetric positive definite matrices (SPD) (Cruceru et al , 2020) in low and high dimensions. ベースライン: ユークリッド (E) や双曲 (H) 空間 (Nickel & Kiela, 2017) のような定数曲率基底線に対するアプローチの比較(境界領域モデルが一般化されているため)、カルテアン積 (E × H と H × H) (Gu et al , 2019) および対称正定値行列 (SPD) (Cruceru et al , 2020) を低次元および高次元で比較する。 0.75
Preliminary experiments on the dual of HypSPDn and on spherical spaces showed poor performance thus we do not compare to them (see Appendix B.12). HypSPDn と球面空間の双対に関する予備実験は、性能が劣っているため、それらと比較することができない(Appendix B.12 参照)。 0.67
To establish a fair comparison, each model has the same number of free parameters. 公正な比較を確立するために、各モデルは同じ数の自由パラメータを持つ。 0.79
This is, the spaces Sn and Bn have n(n + 1) parameters, thus we compare to baselines of the same dimensionality.3 All implementations are taken from Geoopt (Kochurov et al , 2020). すなわち、空間 sn と bn は n(n + 1) のパラメータを持つので、同じ次元のベースラインと比較すると、すべての実装は geoopt (kochurov et al , 2020) から取られる。 0.68
Metrics: Following previous work (Sala et al , 2018; Gu メトリクス: 前回の作業(sala et al , 2018; gu)に続いて 0.72
2Code available at 2コード 利用可能 に 0.67
https://github.com/ https://github.com/ 0.52
fedelopez77/sympa. フェデロペ77/シンパ。 0.36
3We also consider comparable dimensionalities for SPDn, 3 はまた、SPDn に匹敵する次元も考慮する。 0.49
which has n(n+1)/2 parameters. n(n+1)/2 パラメータを持つ。 0.82
et al , 2019), we measure the quality of the learned embeddings by reporting average distortion Davg, a global metric that considers the explicit value of all distances, and mean average precision mAP, a ranking-based measure for local neighborhoods (local metric) as fidelity measures. 我々は,すべての距離の明示的な値を考えるグローバルメトリックである平均歪み davg と,地域(地域指標)を忠実度尺度としてランク付けした平均精度マップを報告し,学習埋め込みの質を測定した。 0.72
Synthetic Graphs: As a first step, we investigate the representation capabilities of different geometric spaces on synthetic graphs. 合成グラフ: 最初のステップとして、合成グラフ上の異なる幾何学空間の表現能力を調べる。 0.79
Previous work has focused on graphs with pure geometric features, such as grids, trees, or their Cartesian products (Gu et al , 2019; Cruceru et al , 2020), which mix the grid- and tree-like features globally. これまでの研究は、グリッドや木などの純粋な幾何学的特徴を持つグラフ(Gu et al , 2019; Cruceru et al , 2020)に焦点を当てていた。 0.58
We expand our analysis to rooted products of trees and grids. 我々は分析を木や格子の根付き製品に拡張する。 0.80
These graphs mix features at different levels and scales. これらのグラフは、異なるレベルとスケールで機能を混ぜています。 0.57
Thus, they reflect to a greater extent the complexity of intertwining and varying structure in different regions, making them a better approximation of real-world datasets. このようにして、異なる領域における相互運用の複雑さと様々な構造を反映し、現実世界のデータセットをよりよく近似する。 0.79
We consider the rooted product TREE (cid:5) GRIDS of a tree and 2D grids, and GRID (cid:5) TREES, of a 2D grid and trees. 木と2Dグリッドのルート積 TREE (cid:5) GRIDS と2DグリッドとツリーのGRID (cid:5) TREES を考える。 0.75
More experimental details, hyperparameters, formulas and statistics about the data are present in Appendix C.3. 実験の詳細、ハイパーパラメータ、公式、データに関する統計は、Appendix C.3にある。 0.74
We report the results for synthetic graphs in Table 1. 表1における合成グラフの結果について報告する。 0.73
We find that the Siegel space with Finsler metrics significantly outperform constant curvature baselines in all graphs, except for the tree, where they have competitive results with the hyperbolic models. フィンスラー測度を持つシーゲル空間は、双曲モデルと競合する結果となる木を除いて、すべてのグラフにおいて一定の曲率基底線を著しく上回っている。 0.71
We observe that Siegel spaces with the Riemannian metric perform on par with the matching geometric spaces or with the best-fitting product of spaces across graphs of pure geometry (grids and Cartesian products of graphs). リーマン計量を持つジーゲル空間は、一致する幾何学空間や、純粋幾何のグラフ(格子とグラフのデカルト積)をまたいだ空間の最も適した積と同等に作用する。 0.67
However, the F1 metric outperforms the Riemannian and F∞ metrics in all graphs, for both models. しかし、F1測度は、両方のモデルに対してすべてのグラフにおいてリーマン計量とF∞測度より優れている。 0.59
This is particularly noticeable for the 4D GRID, where the distortion achieved by F1 models is almost null, matching the intuition of less distorted grid representations through the taxicab metric. これは F1 モデルによって達成される歪みがほとんどヌルである 4D GRID にとって特に顕著であり、タキサブ計量によるより歪みの少ないグリッド表現の直感と一致する。 0.71
Even when the structure of the data conforms to the geometry of baselines, the Siegel spaces with the FinslerRiemannian approach are able to outperform them by automatically adapting to very dissimilar patterns without any a priori estimates of the curvature or other features of the データの構造がベースラインの幾何学に準拠している場合でも、finslerriemannのアプローチによるシーゲル空間は、曲率や他の特徴を事前に見積もることなく、非常に異なるパターンに自動的に適応することにより、それらを上回ることができる。
訳抜け防止モード: データの構造がベースラインの幾何学に適合する場合でも。 フィンスラーリーマン的アプローチによるシーゲル空間はそれらを上回ることができる 曲率や他の特徴を事前に見積もることなく、非常に異なるパターンに自動的に適応する
0.84
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
(|V |,|E|) (|V |,|E|) 0.97
USCA312 (312, 48516) USCA312(312,48516) 0.90
E20 H20 E10 × H10 H10 × H10 E20 H20 E10×H10×H10×H10 0.77
4 4 SPD6 S R S F∞ S F1 BR BF∞ BF1 4 4 SPD6 S R S F∞ S F1 BR BF∞ BF1 0.84
4 4 4 4 Davg 0.18±0.01 2.39±0.02 0.18±0.00 0.47±0.18 0.21±0.02 0.28±0.03 0.57±0.08 0.18±0.02 0.24±0.07 0.21±0.04 0.18±0.07 4 4 4 4 Davg 0.18±0.01 2.39±0.02 0.18±0.00 0.47±0.18 0.21±0.02 0.28±0.03 0.57±0.08 0.18±0.02 0.24±0.07 0.21±0.04 0.18±0.07 0.72
BIO-DISEASOME CSPHD バイオダイソメ CSPHD 0.74
(516, 1188) Davg (516年1188年)davg 0.75
3.83±0.01 6.83±0.08 2.52±0.02 2.57±0.05 2.54±0.00 2.40±0.02 2.78±0.49 1.55±0.04 2.69±0.10 4.58±0.63 1.54±0.02 3.83±0.01 6.83±0.08 2.52±0.02 2.57±0.05 2.54±0.00 2.40±0.02 2.78±0.49 1.55±0.04 2.69±0.10 4.58±0.63 1.54±0.02 0.18
mAP 76.31 91.26 91.99 95.00 82.66 87.01 93.95 90.42 89.11 90.36 90.41 mAP 76.31 91.26 91.99 95.00 82.66 87.01 93.95 90.42 89.11 90.36 90.41 0.44
(1025, 1043) Davg 4.04±0.01 22.42±0.23 3.06±0.02 7.02±1.07 2.92±0.11 4.30±0.18 27.27±1.00 1.50±0.03 28.65±3.39 26.32±6.16 2.96±0.91 (1025, 1043) Davg 4.04±0.01 22.42±0.23 3.06±0.02 7.02±1.07 2.92±0.11 4.30±0.18 27.27±1.00 1.50±0.03 28.65±3.39 26.32±6.16 2.96±0.91 0.25
mAP 47.37 60.24 73.25 79.22 57.88 59.95 59.45 64.11 62.66 54.94 67.58 mAP 47.37 60.24 73.25 79.22 57.88 59.95 59.45 64.11 62.66 54.94 67.58 0.44
EUROROAD (1039, 1305) Davg 4.50±0.00 43.56±0.44 4.24±0.02 23.30±1.62 19.54±0.99 29.21±0.91 46.82±1.02 3.79±0.07 53.45±2.65 52.69±2.28 21.98±0.62 EUROROAD (1039, 1305) Davg 4.50±0.00 43.56±0.44 4.24±0.02 23.30±1.62 19.54±0.99 29.21±0.91 46.82±1.02 3.79±0.07 53.45±2.65 52.69±2.28 21.98±0.62 0.26
mAP 87.70 54.25 89.93 75.07 92.38 84.92 72.03 94.63 48.75 48.75 91.63 mAP 87.70 54.25 89.93 75.07 92.38 84.92 72.03 94.63 48.75 48.75 91.63 0.44
FACEBOOK (4039, 88234) Davg FACEBOOK (4039年、88234年)davg 0.78
3.16±0.01 3.72±0.00 2.80±0.01 2.51±0.00 2.92±0.05 3.07±0.04 1.90±0.11 2.37±0.07 3.58±0.10 2.18±0.18 5.05±0.03 3.16±0.01 3.72±0.00 2.80±0.01 2.51±0.00 2.92±0.05 3.07±0.04 1.90±0.11 2.37±0.07 3.58±0.10 2.18±0.18 5.05±0.03 0.18
mAP 32.21 44.85 34.26 36.39 33.73 30.98 45.58 35.23 30.35 39.15 39.87 mAP 32.21 44.85 34.26 36.39 33.73 30.98 45.58 35.23 30.35 39.15 39.87 0.44
Table 2. Results for real-world datasets. 表2。 実世界のデータセットの結果。 0.68
Lower Davg is better. 下部davgの方が良いです。 0.62
Higher mAP is better. より高いmAPの方がよい。 0.67
Metrics are given as percentage. メトリクスはパーセンテージとして与えられる。 0.51
graph. This showcases the flexibility of our models, due to its enhanced geometry and higher expressivity. グラフ。 これは、ジオメトリの強化と表現性の向上により、我々のモデルの柔軟性を示す。 0.70
For graphs with mixed geometric features (rooted products), Cartesian products of spaces cannot arrange these compound geometries into separate Euclidean and hyperbolic subspaces. 混合幾何学的特徴(根付き積)を持つグラフに対して、空間のカルト積はこれらの複素幾何学をユークリッド部分空間と双曲部分空間に配置することはできない。 0.59
RSS, on the other hand, offer a less distorted representation of these tangled patterns by exploiting their richer geometry which mixes hyperbolic and Euclidean features. 一方rssは、双曲的特徴とユークリッド的特徴を混合したよりリッチな幾何学を利用して、これらの絡み合ったパターンの歪みの少ない表現を提供する。 0.61
Moreover, they reach a competitive performance on the local neighborhood reconstruction, as the mean precision shows. さらに、平均精度が示すように、地域の復興において競争力を発揮する。 0.55
Results for more dimensionalities are given in Appendix F. Real-world Datasets: We compare the models on two road networks, namely USCA312 of distances between North American cities and EUROROAD between European cities, BIO-DISEASOME, a network of human disorders and diseases with reference to their genetic origins (Goh et al , 2007), a graph of computer science Ph.D. advisor-advisee relationships (Nooy et al , 2011), and a dense social network from Facebook (McAuley & Leskovec, 2012). Appendix F. Real-world Datasets: 北米の都市とEUROROAD間の距離のUSCA312、欧州の都市、BIO-DISEASOME、人間の疾患と疾患のネットワーク(Goh et al, 2007)、コンピュータサイエンスのPh.D.アドバイザリー関係のグラフ(Nooy et al, 2011)、Facebookの密集したソーシャルネットワーク(McAuley & Leskovec, 2012)の2つの道路ネットワークのモデルを比較する。
訳抜け防止モード: Appendix F. Real - World Datasets において、より次元的な結果が与えられる 北米の都市間距離と欧州の都市間距離の2つの道路網,すなわちUSCA312のモデルを比較した。 BIO-disEASOME : 遺伝性疾患と疾患のネットワーク(Goh et al, 2007) コンピュータサイエンスのPh.D.アドバイザのグラフ - 助言関係(Nooy et al, 2011) そして、Facebook(McAuley & Leskovec, 2012)からの密集したソーシャルネットワークもある。
0.83
These graphs have been analyzed in previous work as well (Gu et al , 2019; Cruceru et al , 2020). これらのグラフは以前の研究でも分析されている(Gu et al , 2019; Cruceru et al , 2020)。 0.87
We report the results in Table 2. 結果は第2表で報告する。 0.69
On the USCA312 dataset, which is the only weighted graph under consideration, the 唯一検討中の重み付きグラフであるUSCA312データセットについて 0.71
4 4 S R S F∞ S F1 E306 H306 S306 4 4 S R S F∞ S F1 E306 H306 S306 0.83
4 17 S R S F∞ S F1 4 17 S R S F∞ S F1 0.87
17 17 E153 × H153 S153 × S153 17 17 E153×H153S153×S153 0.84
TREE × GRID Davg 9.13 4.81 0.81 9.80 17.31 73.78 9.14 60.71 9.19 4.82 0.03 TREE × GRID Davg 9.13 4.81 0.81 9.80 17.31 73.78 9.14 60.71 9.19 4.82 0.03 0.50
mAP Davg 99.92 1.54 10.48 99.28 100.00 0.84 2.81 85.14 15.92 82.97 35.36 81.67 100.00 1.52 70.00 6.93 1.31 99.89 11.45 97.45 100.00 0.27 mAP Davg 99.92 1.54 10.48 99.28 100.00 0.84 2.81 85.14 15.92 82.97 35.36 81.67 100.00 1.52 70.00 6.93 1.31 99.89 11.45 97.45 100.00 0.27 0.43
GRID (cid:5) TREES GRID (cid:5) TREES 0.88
BIO-DISEASOME mAP Davg 76.66 2.40 2.78 72.53 1.55 80.52 3.52 67.69 7.04 27.14 58.26 70.91 2.36 97.85 55.51 5.64 2.13 75.45 1.50 94.09 99.23 0.73 バイオダイソメ mAP Davg 76.66 2.40 2.78 72.53 1.55 80.52 3.52 67.69 7.04 27.14 58.26 70.91 2.36 97.85 55.51 5.64 2.13 75.45 1.50 94.09 99.23 0.73 0.53
mAP 87.01 93.95 90.42 88.45 91.46 84.61 95.65 19.51 93.14 98.27 99.09 mAP 87.01 93.95 90.42 88.45 91.46 84.61 95.65 19.51 93.14 98.27 99.09 0.44
Siegel spaces perform on par with the compared target manifolds. siegel空間は比較対象多様体と同等に作用する。 0.55
For all other datasets, the model with Finsler metrics outperforms all baselines. 他のすべてのデータセットに対して、Finslerメトリクスのモデルは、すべてのベースラインを上回っます。 0.54
In line with the results for synthetic datasets, the F1 metric exhibits an outstanding performance across several datasets. 合成データセットの結果に合わせて、F1メトリックは複数のデータセットで優れたパフォーマンスを示す。 0.81
Overall, these results show the strong reconstruction capabilities of RSS for real-world data as well. これらの結果は、実世界のデータに対するRSSの強力な再構築能力を示している。 0.63
It also indicates that vertices in these real-world dataset form networks with a more intricate geometry, which the Siegel space is able to unfold to a better extent. また、これらの実世界のデータセットの頂点はより複雑な幾何学を持つネットワークを形成しており、シーゲル空間はより広く展開できることを示している。 0.69
High-dimensional Spaces: In Table 3 we compare the approach in high-dimensional spaces (rank 17 which is equal to 306 free parameters), also including spherical spaces S. The results show that our models operate well with larger matrices, where we see further improvement in our distortion and mean average precision over the low dimensional spaces of rank 4. 高次元空間:表3では、球面空間sを含む高次元空間(306自由パラメータに等しいランク17)におけるアプローチを比較する。
訳抜け防止モード: 高次元空間 : 表3では高次元空間(306自由パラメータに等しいランク17)におけるアプローチを比較する。 また、球面空間 s も含む。結果は、我々のモデルがより大きな行列と共にうまく機能することを示している。 低次元の階数 4 の空間に対する歪みや平均精度がさらに向上している。
0.84
We observe that even though we notably increase the dimensions of the baselines to 306, the Siegel models of rank 4 (equivalent to 20 dimensions) significantly outperform them. 我々はベースラインの寸法を306に格段に増やしても、ランク4のシーゲルモデル(20次元に相当する)はそれらを著しく上回っていることを観察する。 0.72
These results match the expectation that the richer variable curvature geometry of RSS better adapts to graphs with intricate geometric structures. これらの結果は、rssのよりリッチな可変曲率幾何が複雑な幾何学的構造を持つグラフに適合することを期待している。
訳抜け防止モード: これらの結果は rss のより豊かな可変曲率幾何学は、複雑な幾何学構造を持つグラフにうまく適応する。
0.72
6. Analysis of the Embedding Space One reason to embed graphs into Riemannian manifolds is to use geometric properties of the manifold to analyze 6. リーマン多様体にグラフを埋め込む理由の一つは、多様体の幾何学的性質を用いて解析することである。
訳抜け防止モード: 6. 埋め込み空間の解析 リーマン多様体にグラフを埋め込む理由の一つは、 多様体の幾何学的性質を使って解析する
0.80
Table 3. Results for different datasets in high-dimensional spaces. 表3。 高次元空間における異なるデータセットの結果。 0.70
Best result is bold, second best underlined. 最高の結果は、大胆で、二番目の下線です。 0.57
Figure 4. Edge coloring of S F 1 uct of TREE (cid:5) GRIDS (center), and of GRID (cid:5) TREES. 図4。 木 (cid:5) グリッド (center) とグリッド (cid:5) の s f 1 uct のエッジカラー化。
訳抜け防止モード: 図4。 TREE (cid:5 ) GRIDS ( center ) の S F 1 uct のエッジカラー化 GRID (cid:5 ) TREES。
0.78
for a tree (left), and a rooted prod- 木(左)と根のついた前駆体のために 0.61
2 2 0.85
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
Figure 5. Edge coloring of S F 1 the vector-valued distance for each edge, on a linear scale from 0 (yellow) to π/4 (blue). 図5。 S F 1 のエッジカラー化は、各エッジのベクトル値距離を 0 (黄) から π/4 (青) までの線形スケールで表す。 0.80
2 for BIO-DISEASOME (left) and CSPHD (center) and FACEBOOK (right). 2 BIO-DISEASOME (左) と CSPHD (中央) と FACEBOOK (右) です。 0.81
Edge colors indicate the angle of the structure of the graph. 縁の色は角度を表す グラフの構造です 0.69
Embeddings into hyperbolic spaces, for example, have been used to infer and visualize hierarchical structure in data sets (Nickel & Kiela, 2018). 例えば、双曲空間への埋め込みはデータセットの階層構造を推論し視覚化するために使われてきた(Nickel & Kiela, 2018)。 0.76
Visualizations in RSS are difficult due to their high dimensionality. RSSの可視化は高次元性のため困難である。 0.82
As a solution we use the vector-valued distance function in the RSS to develop a new tool to visualize and to analyze structural properties of the graphs. 解法として、RSSにおけるベクトル値距離関数を用いて、グラフの構造特性を可視化し解析する新しいツールを開発する。 0.85
We focus on HypSPD2, the Siegel space of rank k = 2, where the vector-valued distance is just a vector in a cone in R2. 我々はランク k = 2 のシーゲル空間 HypSPD2 に焦点を当て、ベクトル値距離は R2 の錐のベクトルである。 0.75
We take edges (Zi, Zj) and assign the angle of the vector vDist(Zi, Zj) = (v1, v2) (see Algorithm 1, step 6) to each edge in the graph. 辺 (Zi, Zj) を取り、ベクトル vDist(Zi, Zj) = (v1, v2) の角度をグラフの各辺に割り当てる。
訳抜け防止モード: 辺 (Zi, Zj ) を取り、ベクトル vDist(Zi,) の角度を割り当てる。 Zj ) = ( v1, v2 ) (アルゴリズム1、ステップ6 ) グラフの各辺について。
0.75
This angle assignment provides a continuous edge coloring that can be leveraged to find structure in graphs. この角度割当ては、グラフの構造を見つけるために利用できる連続的なエッジカラーリングを提供する。 0.79
We see in Figure 4 that the edge coloring makes the largescale structure of the tree (blue/green edges) and the leaves (yellow edges) visible. 図4では、縁の色付けによって、木(青/緑の縁)と葉(黄色の縁)の大規模な構造が見えます。 0.73
This is even more striking for the rooted products. これは、根付いた製品にとってさらに印象的だ。 0.67
In TREE (cid:5) GRIDS the edge coloring distinguishes the hyperbolic parts of the graph (blue edges) and the Euclidean parts (yellow edges). TREE (cid:5) では、エッジカラー化はグラフの双曲的部分(青いエッジ)とユークリッド部分(黄色のエッジ)を区別する。 0.76
For the GRID (cid:5) TREES, the Euclidean parts are labelled by blue/green edges and the hyperbolic parts by yellow edges. GRID (cid:5) TREESでは、ユークリッド部分は青/緑の縁、双曲部は黄色の縁でラベル付けされる。 0.66
Thus, even though we trained the embedding only on the metric, it automatically adapts to other features of the graph. したがって、私たちはメトリックのみに埋め込みを訓練したが、グラフの他の機能に自動的に適応する。 0.74
In the edge visualizations for real-world datasets (Figure 5), the edges in the denser connected parts of the graph have a higher angle, as it can be seen for the BIO-DISEASOME and FACEBOOK data sets. 実世界のデータセットのエッジ視覚化(図5)では、BIO-DISEASOMEとFACEBOOKデータセットで見られるように、グラフのより密接な連結部分のエッジは高い角度を持つ。 0.77
For CSPHD, the tree structure is emphasized by the low angles. CSPHDの場合、木構造は低角度で強調される。 0.70
This suggests that the continuous values that we assign to edges are a powerful tool to automatically discover dissimilar patterns in graphs. これは、エッジに割り当てる連続的な値は、グラフ内の異種パターンを自動的に発見する強力なツールであることを示している。 0.65
This can be further used in efficient clustering of the graph. これはグラフの効率的なクラスタリングにさらに利用できる。 0.75
In Appendix E we give similar visualizations for the Riemannian metric and the F∞ Finsler metric, showing that also with respect to exhibiting structural properties, the F1 metric performs best. 付録 e において、リーマン計量と f∞ フィンスラー計量の類似の可視化を与え、構造的性質の提示に関しても f1 計量が最良であることを示す。 0.64
7. Downstream Tasks We also evaluate the representation capabilities of Siegel spaces on two downstream tasks: recommender systems and node classification. 7. 下流タスク また,2つの下流タスク(レコメンダシステムとノード分類)上でのジーゲル空間の表現能力を評価する。 0.74
7.1. Recommender Systems 7.1. 推薦システム 0.70
Our method can be applied in downstream tasks that involve embedding graphs, such as recommender systems. 提案手法は,レコメンダシステムなどのグラフの埋め込みを含む下流タスクに適用できる。 0.62
These systems mine user-item interactions and recommend items to users according to the distance/similarity between their respective embeddings (Hsieh et al , 2017). これらのシステムはユーザとアイテムのインタラクションを掘り起こし、それぞれの埋め込み間の距離/類似度に応じてアイテムをユーザに推奨する(hsieh et al , 2017)。 0.66
Setup: Given a set of observed user-item interactions T = {(u, v)}, we follow a metric learning approach (Vinh Tran et al , 2020) and learn embeddings by optimizing the following hinge loss function: L = 設定: 観測されたユーザ-テム相互作用の集合 T = {(u, v)} が与えられた場合、計量学習アプローチ(Vinh Tran et al , 2020)に従い、次のヒンジ損失関数を最適化して埋め込みを学ぶ。 0.82
[m + dK(u, v)2 − dK(u, w)2]+ (3) [m + dK(u, v)2 − dK(u, w)2]+ (3) 0.81
(cid:88) (cid:88) (cid:88) (cid:88) 0.78
(u,v)∈T (u,w)(cid:54)∈T (u,v)大T (u,w)(cid:54)servlet t 0.67
where K is the target space, w is an item the user has not interacted with, u, v, w ∈ K, m > 0 is the hinge margin and [z]+ = max(0, z). K が対象空間であれば、w は使用者が相互作用していない項目であり、u, v, w ∈ K, m > 0 はヒンジマージン、[z]+ = max(0, z) である。 0.82
To generate recommendations, for each user u we rank the items vi according to their distance to u. 推薦を生成するために、各ユーザ u に対して、各ユーザ u までの距離に応じて、アイテム vi をランク付けする。 0.54
Since it is very costly to rank all the available items, we randomly select 100 samples which the user has not interacted with, and rank the ground truth amongst these samples (He et al , 2017). 利用可能なすべての項目をランク付けするのは非常にコストがかかるので、ユーザが操作していない100のサンプルをランダムに選択し、これらのサンプルの中で根拠の真理をランク付けします(he et al , 2017)。 0.65
We adopt normalized discounted cumulative gain (nDG) and hit ratio (HR), both at 10, as ranking evaluation metrics for recommendations. 我々は、レコメンデーションのためのランキング評価指標として、正規化割引累積利得(ndg)とヒット率(hr)を10で採用した。 0.57
More experimental details and data stats in Appendix C.4. Appendix C.4のさらなる実験的詳細とデータ統計。 0.87
Data: We evaluate the different models over two MovieLens datasets (ML-1M and ML-100K) (Harper & Konstan, 2015), LAST.FM, a dataset of artist listening records (Cantador et al , 2011), and MEETUP, crawled from Meetup.com (Pham et al , 2015). データ:2つのMovieLensデータセット(ML-1MとML-100K)(Harper & Konstan, 2015)、アーティストリスニングレコードのデータセット(Cantador et al , 2011)、Meetup.com(Pham et al , 2015)におけるMEETUPの異なるモデルを評価した。 0.85
To generate evaluation splits, the penultimate and last item the user has interacted with are withheld as dev and test set respectively. 評価分割を生成するには、ユーザが操作したペナルティメートとラストアイテムはそれぞれ、開発とテストセットとして保持される。
訳抜け防止モード: 評価スプリットを生成する ユーザが操作したペナルティメイトとラストアイテムはそれぞれ、開発とテストセットとして保持される。
0.77
Results: We report the performance for all analyzed models in Table 4. 結果:表4のすべての分析モデルの性能について報告する。 0.85
While in the Movies datasets, the Riemannian 映画『リーマン』のデータセットの中で 0.60
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
ML-100K LASTFM ML-100K LASTFM 0.66
MEETUP HR@10 54.6±1.0 53.4±1.0 53.1±1.3 54.8±0.9 53.3±1.4 55.7±0.9 52.5±0.3 55.6±1.3 ミートアップ HR@10 54.6±1.0 53.4±1.0 53.1±1.3 54.8±0.9 53.3±1.4 55.7±0.9 52.5±0.3 55.6±1.3 0.30
nDG 28.7 28.2 27.9 29.1 28.0 28.6 27.5 29.4 nDG 28.7 28.2 27.9 29.1 28.0 28.6 27.5 29.4 0.45
HR@10 55.4±0.3 54.8±0.5 45.5±0.9 55.0±0.9 55.4±0.2 53.1±0.5 53.8±1.7 61.1±1.2 HR@10 55.4±0.3 54.8±0.5 45.5±0.9 55.0±0.9 55.4±0.2 53.1±0.5 53.8±1.7 61.1±1.2 0.24
nDG 24.6 24.9 18.9 24.6 25.3 24.8 32.5 38.0 nDG 24.6 24.9 18.9 24.6 25.3 24.8 32.5 38.0 0.45
HR@10 69.8±0.4 71.8±0.5 70.7±0.2 71.7±0.1 70.1±0.6 65.8±1.2 69.0±0.5 74.9±0.1 HR@10 69.8±0.4 71.8±0.5 70.7±0.2 71.7±0.1 70.1±0.6 65.8±1.2 69.0±0.5 74.9±0.1 0.24
nDG 46.4 48.5 47.5 48.8 46.5 43.4 46.4 52.8 nDG 46.4 48.5 47.5 48.8 46.5 43.4 46.4 52.8 0.45
E20 H20 E10 × H10 H10 × H10 SPD6 S R S F∞ S F1 E20 H20 E10 × H10 × H10 SPD6 S R S F∞ S F1 0.78
4 4 4 ML-1M 4 4 4 ML-1M 0.76
HR@10 46.9±0.6 46.0±0.5 52.0±0.7 46.7±0.6 45.8±1.0 53.8±0.3 45.9±0.9 52.9±0.6 HR@10 46.9±0.6 46.0±0.5 52.0±0.7 46.7±0.6 45.8±1.0 53.8±0.3 45.9±0.9 52.9±0.6 0.24
nDG 22.7 23.0 27.4 23.0 22.1 27.7 22.7 27.2 nDG 22.7 23.0 27.4 23.0 22.1 27.7 22.7 27.2 0.45
Table 4. Results for recommender system datasets. 表4。 推奨システムデータセットの結果。 0.75
model marginally outperforms the baselines, in the other two cases the F1 model achieves the highest performance by a larger difference. モデルがベースラインをわずかに上回り、他の2つのケースでは、F1モデルは大きな差で最高のパフォーマンスを達成する。 0.72
These systems learn to model users’ preferences, and embeds users and items in the space, in a way that is exploited for the task of generating recommendations. これらのシステムは、ユーザの好みをモデル化し、レコメンデーションを生成するために利用される方法で、ユーザとアイテムを空間に埋め込む。 0.65
In this manner we demonstrate how downstream tasks can profit from the enhanced graph representation capacity of our models, and we highlight the flexibility of the method, in this case applied in combination with a collaborative metric learning approach (Hsieh et al , 2017). このようにして、我々のモデルのグラフ表現能力の強化から下流タスクがどのように利益を得るかを実証し、この場合、協調的なメトリック学習アプローチ(Hsieh et al , 2017)と組み合わせて、手法の柔軟性を強調する。 0.79
7.2. Node Classification 7.2. ノード分類 0.72
Our proposed graph embeddings can be used in conjunction with standard machine learning pipelines, such as downstream classification. 提案するグラフ埋め込みは、下流分類などの標準的な機械学習パイプラインと併用することができる。 0.76
To demonstrate this, and following the procedure of Chami et al (2020), we embed three hierarchical clustering datasets based on the cosine distance between their points, and then use the learned embeddings as input features for a Euclidean logistic regression model. これを実証するために,chami et al (2020) の手順に従って,それらの点間のコサイン距離に基づく3つの階層的クラスタリングデータセットを埋め込み,ユークリッドロジスティック回帰モデルの入力特徴として学習埋め込みを用いる。 0.87
Since the node embeddings lie in different metric spaces, we apply the corresponding logarithmic map to obtain a ”flat” representation before classifying. ノード埋め込みは異なる距離空間にあるので、対応する対数写像を適用して、分類する前に「フラット」表現を得る。 0.66
For the Siegel models of dimension n, we first map each complex matrix embedding Z = X + iY to [(Y + XY −1X, XY −1), (Y −1X, Y −1)] ∈ SPD2n, this is the natural realisation of HypSPDn as a totally geodesic submanifold of SPD2n, and then we apply the LogEig map (Huang & Gool, 2017), which yields a representation in a flat space. 次元 n のシーゲルモデルに対して、まず Z = X + iY を [(Y + XY −1X, XY −1), (Y −1X, Y −1)] ∈ SPD2n に埋め込み、これは、HypSPDn を SPD2n の完全測地部分多様体として自然な実現であり、次に、平面空間における表現をもたらすLogEig 写像 (Huang & Gool, 2017) を適用する。 0.81
More experimental details in Appendix C.5. appendix c.5のより実験的な詳細。 0.66
Results are presented in Table 5. 結果は表5で示されます。 0.78
In all cases we see that the embeddings learned by our models capture the structural properties of the dataset, so that a simple classifier can separate the nodes into different clusters. すべてのケースにおいて、モデルによって学習された埋め込みがデータセットの構造的特性をキャプチャし、単純な分類器がノードを異なるクラスタに分割できるようにする。 0.77
They offer the best 彼らは最善を尽くします 0.58
Dataset E20 H20 データセット E20 H20 0.62
E10 × H10 H10 × H10 E10×H10×H10×H10 0.83
4 4 SPD6 S R S F∞ S F1 BR BF∞ BF1 4 4 SPD6 S R S F∞ S F1 BR BF∞ BF1 0.84
4 4 4 4 IRIS 4 4 4 4 アイリス 0.78
83.3±1.1 84.0±0.6 85.6±1.1 87.8±1.4 88.0±1.6 88.0±0.5 89.1±0.5 89.3±1.1 86.0±1.9 84.4±0.0 85.6±1.4 83.3±1.1 84.0±0.6 85.6±1.1 87.8±1.4 88.0±1.6 88.0±0.5 89.1±0.5 89.3±1.1 86.0±1.9 84.4±0.0 85.6±1.4 0.18
ZOO 88.7±1.8 87.3±1.5 88.0±1.4 87.3±1.5 88.7±2.2 88.7±2.2 88.7±2.5 90.7±1.5 88.7±1.4 87.3±1.9 89.3±2.8 蔵 88.7±1.8 87.3±1.5 88.0±1.4 87.3±1.5 88.7±2.2 88.7±2.2 88.7±2.5 90.7±1.5 88.7±1.4 87.3±1.9 89.3±2.8 0.29
GLASS 67.2±2.5 62.8±2.0 64.8±4.3 63.4±3.4 66.9±2.0 66.6±2.4 65.2±3.0 67.5±3.9 65.5±3.1 65.6±1.7 64.2±1.7 GLASS 67.2±2.5 62.8±2.0 64.8±4.3 63.4±3.4 66.9±2.0 66.6±2.4 65.2±3.0 67.5±3.9 65.5±3.1 65.6±1.7 64.2±1.7 0.19
Table 5. Accuracy for node classification based on its embedding. テーブル5。 埋め込みに基づくノード分類の精度 0.66
performance in the three datasets. 3つのデータセットのパフォーマンスです 0.71
This suggests that embeddings in Siegel spaces learn meaningful representations that can be exploited into downstream tasks. これは、ジーゲル空間への埋め込みが下流のタスクに活用できる意味のある表現を学ぶことを示唆している。 0.49
Moreover, we showcase how to map these embeddings to ”flat” vectors; in this way they can be integrated with classical Euclidean network layers. さらに、これらの埋め込みを“フラット”ベクターにマップする方法を示し、この方法では、古典的なユークリッドネットワーク層と統合することができる。 0.67
8. Conclusions & Future Work Riemannian manifold learning has regained attention due to appealing geometric properties that allow methods to represent non-Euclidean data arising in several domains. 8. 結論と将来のワーク リーマン多様体の学習は、いくつかの領域で生じる非ユークリッド的データを表現する方法が認められるような幾何学的性質をアピールするため、注目を集めている。 0.69
We propose the systematic use of symmetric spaces to encompass previous work in representation learning, and develop a toolkit that allows practitioners to choose a Riemannian symmetric space and implement the mathematical tools required to learn graph embeddings. 表現学習における従来の研究を包含する対称空間の体系的利用を提案し、実践者がリーマン対称空間を選択してグラフ埋め込みを学ぶのに必要な数学的ツールを実装するツールキットを開発する。 0.76
We introduce the use of Finsler metrics integrated with a Riemannian optimization scheme, which provide a significantly less distorted representation over several data sets. 我々は, リーマン最適化スキームと統合されたフィンスラー測度を導入し, 複数のデータセットに対する歪みの少ない表現を提供する。 0.71
As a new tool to discover structure in the graph, we leverage the vector-valued distance function on a RSS. グラフの構造を発見するための新しいツールとして、RSS上のベクトル値距離関数を利用する。 0.82
We implement these ideas on Siegel spaces, a rich class of RSS that had not been explored in geometric deep learning, and we develop tractable and mathematically sound algorithms to learn embeddings in these spaces through gradient-descent methods. 我々は,幾何学的深層学習では研究されていないrssの豊富なクラスであるジーゲル空間にこれらのアイデアを実装し,勾配-descent法を用いてこれらの空間への埋め込みを学習するための気道的,数学的に健全なアルゴリズムを開発した。 0.63
We showcase the effectiveness of the proposed approach on conventional as well as new datasets for the graph reconstruction task, and in two downstream tasks. 本稿では,従来のグラフ再構成タスクと2つの下流タスクにおける新しいデータセットに対する提案手法の有効性を示す。 0.80
Our method ties or outperforms constant-curvature baselines without requiring any previous assumption on geometric features of the graphs. 本手法は, グラフの幾何学的特徴に対する事前の仮定を必要とせず, 定数曲率ベースラインの結びつきや性能を向上する。 0.56
This shows the flexibility and enhanced representation capacity of Siegel spaces, as well as the versatility of our approach. これは、シーゲル空間の柔軟性と拡張表現能力、および我々のアプローチの汎用性を示している。 0.70
As future directions, we consider applying the vector-valued distance in clustering and structural analysis of graphs, and the development of deep neural network architectures adapted to the geometry of RSS, specifically Siegel spaces. 今後の方向性として,グラフのクラスタリングと構造解析にベクトル値距離を適用することや,rssの幾何学,特にシーゲル空間に適応したディープニューラルネットワークアーキテクチャの開発を検討する。 0.82
A further interesting research direction is to use geometric transition between symmetric spaces to extend the approach demonstrated by curvature learning `a la Gu et al (2019). さらに興味深い研究の方向は、対称空間間の幾何学的遷移を用いて曲率学習 ‘a la gu et al (2019) によって示されるアプローチを拡張することである。 0.76
We plan to leverage the structure of the Siegel space of a hyperbolic plane over SPD to analyze medical imaging data, which is often given as symmetric positive definite matrices, see Pennec (2020). spd上の双曲平面のシーゲル空間の構造を利用して、しばしば対称正定値行列として与えられる医用画像データを分析する計画である(pennec (2020))。 0.71
Acknowledgements This work has been supported by the German Research Foundation (DFG) as part of the Research Training Group AIPHES under grant No. この研究はドイツ研究財団(dfg)がグラントno.1の下で研究訓練グループaiphesの一部として支持している。 0.70
GRK 1994/1, as well as under Germany’s Excellence Strategy EXC-2181/1 - 390900948 (the Heidelberg STRUCTURES Cluster of Excellence), and by the Klaus Tschira Foundation, Heidelberg, Germany. GRK 1994/1、ドイツのExcellence Strategy EXC-2181/1 - 390900948(Heidelberg StructureS Cluster of Excellence)、ドイツのハイデルベルクのKlaus Tschira Foundationによる。
訳抜け防止モード: GRK 1994/1 およびドイツのExcellence Strategy EXC-2181/1 - 390900948 (Heidelberg StructureS Cluster of Excellence ) そして、ドイツ、ハイデルベルクのクラウス・ツィーラ財団(Klaus Tschira Foundation)が設立した。
0.81
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
References Bachmann, G., B´ecigneul, G., and Ganea, O.-E. Bachmann, G., B ecigneul, G., Ganea, O.-Eを参照。 0.90
Constant curvature graph convolutional networks. 定曲率グラフ畳み込みネットワーク。 0.61
In 37th International Conference on Machine Learning (ICML), 2020. 第37回In the 37th International Conference on Machine Learning (ICML) 2020に参加。 0.73
B´ecigneul, G. and Ganea, O.-E. Riemannian adaptive In 7th International Conferoptimization methods. B ecigneul, G. and Ganea, O.-E. Riemannian Adaptive 第7回国際干渉最適化法 0.70
ence on Learning Representations, ICLR, New Orleans, LA, USA, May 2019. ence on Learning Representations, ICLR, New Orleans, LA, USA, 2019年5月。 0.89
URL https://openreview. URL https://openreview.c om 0.73
net/forum?id=r1eiqi09K7. net/forum?id=r1eiqi09k7。 0.39
Boland, J. and Newberger, F. Minimal entropy rigidity for Finsler manifolds of negative flag curvature. Boland, J. and Newberger, F. Minimal entropy rigidity for Finsler manifolds of negative flag curvature。 0.89
Ergodic Theory and Dynamical Systems, 21(1):13–23, 2001. doi: 10.1017/S01433857010 01055. Ergodic Theory and Dynamical Systems, 21(1):13–23, 2001. doi: 10.1017/S01433857010 01055 0.80
Bonnabel, S. Stochastic gradient descent on Riemannian manifolds. bonnabel, s. リーマン多様体上の確率的勾配降下 0.59
IEEE Transactions on Automatic Control, 58, 11 2011. doi: 10.1109/TAC.2013.225 4619. IEEE Transactions on Automatic Control, 58, 11 2011 doi: 10.1109/TAC.2013.225 4619 0.77
Bronstein, M. M., Bruna, J., LeCun, Y., Szlam, A., and Vandergheynst, P. Geometric deep learning: Going beyond Euclidean data. bronstein, m. m., bruna, j., lecun, y., szlam, a., and vandergheynst, p. geometric deep learning: going beyond euclidean data. (英語) 0.83
IEEE Signal Processing Magazine, 34 (4):18–42, 2017. IEEE Signal Processing Magazine, 34 (4):18–42, 2017 0.90
Cantador, I., Brusilovsky, P., and Kuflik, T. 2nd Workshop on Information Heterogeneity and Fusion in Recommender Systems (HetRec 2011). Cantador, I., Brusilovsky, P., Kuflik, T. 2nd Workshop on Information Heterogeneity and Fusion in Recommender Systems (HetRec 2011) 0.80
In Proceedings of the 5th ACM Conference on Recommender Systems, RecSys 2011, New York, NY, USA, 2011. 第5回ACM Conference on Recommender Systems, RecSys 2011, New York, NY, USA, 2011 に参加して 0.81
ACM. Cayley, A. gauches. ACM。 Cayley, A. gauches 0.80
wandte Mathematik, 32:119–123, 1846. http://www.digizeits chriften.de/dms/ img/?PID=GDZPPN002145308. wandte Mathematik, 32:119–123, 1846. http://www.digizeits chriften.de/dms/img/ ?PID=GDZPPN002145308 0.51
Sur quelques propri´et´es des d´eterminants reine und angeURL リネとアンジェルの終端物質に就て 0.31
f¨ur die f (複数形 fs) 0.31
Journal Chamberlain, B., Deisenroth, M., and Clough, J. Neural embeddings of graphs in hyperbolic space. 日誌 chamberlain, b., deisenroth, m., clough, j. 双曲空間におけるグラフの神経埋め込み。 0.73
In Proceedings of the 13th International Workshop on Mining and Learning with Graphs (MLG), 2017. The 13th International Workshop on Mining and Learning with Graphs (MLG) 2017 に参加して 0.76
graph convolutional graph convolutional~ 0.78
Chami, I., Ying, Z., R´e, C., and Leskovec, J. Hynetworks. Chami, I., Ying, Z., R ́e, C., and Leskovec, J. Hynetworks 0.92
in Neural Information Processing pp. In Neural Information Processing pp。 0.79
4869–4880. 4869–4880. 0.71
Curran Associates, URL https://proceedings. Curran Associates, URL https://proceedings. com 0.79
perbolic In Advances Systems 32, Inc., 2019. neurips.cc/paper/201 9/file/ 0415740eaa4d9decbc8d a001d3fd805f-Paper. perbolic In Advances Systems 32, Inc., 2019. neurips.cc/paper/201 9/file/ 0415740ea4dcbc8da001 d3f805f-Paper. 0.42
pdf. neural Chami, I., Gu, A., Chatziafratis, V., and R´e, C. From trees to continuous embeddings and back: Hyperbolic hierarchical clustering. pdf。 神経 chami, i., gu, a., chatziafratis, v., r'e, c. from trees to continuous embeddeds and back: hyperbolic hierarchical clustering。 0.74
In Larochelle, H., Ranzato, M., Hadsell, R., Balcan, M., and Lin, H. Larochelle, H., Ranzato, M., Hadsell, R., Balcan, M., Lin, H。 0.73
(eds. ), Advances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 6-12, 2020, virtual, 2020. (eds)。 ニューラル情報処理システムの進歩 33: annual conference on neural information processing systems 2020, neurips 2020, december 6-12, 2020, virtual, 2020 0.75
Cruceru, C., B´ecigneul, G., and Ganea, O.-E. Computationally tractable Riemannian manifolds for graph embeddings. Cruceru, C., B ́ecigneul, G., and Ganea, O.-E. グラフ埋め込みに対する計算計算可能リーマン多様体。 0.69
In 37th International Conference on Machine Learning (ICML), 2020. 第37回In the 37th International Conference on Machine Learning (ICML) 2020に参加。 0.73
Defferrard, M., Milani, M., Gusset, F., and Perraudin, N. DeepSphere: A graph-based spherical CNN. Defferrard, M., Milani, M., Gusset, F., Perraudin, N. DeepSphere: グラフベースの球面CNN。 0.80
In International Conference on Learning Representations, 2020. 2020年、国際学習表現会議に参加。 0.78
URL https://openreview.n et/forum? URL https://openreview.n et/forum? 0.59
id=B1e3OlStPB. id=B1e3OlStPB。 0.36
Donoho, D. L. and Tsaig, Y. Donoho, D. L. and Tsaig, Y。 0.95
Fast solution of (cid:96)1-norm minimization problems when the solution may be sparse. 解がスパースである場合(cid:96)1-ノルム最小化問題の高速解法。 0.59
IEEE Trans. IEEE Trans。 0.82
Information Theory, 54(11):4789–4812, 2008. 情報理論、54(11):4789–4812, 2008。 0.84
Dua, D. and Graff, C. UCI machine learning repository, 2017. Dua, D. and Graff, C. UCI machine learning repository, 2017 0.87
URL http://archive.ics.u ci.edu/ml. URL http://archive.ics.u ci.edu/ml 0.46
Falkenberg, A. フォルケンベルク、A。 0.59
Method to calculate the inverse of a complex 複素体の逆数を計算する方法 0.70
matrix using real matrix inversion. 実行列反転を用いた行列 0.64
2007. Ganea, O.-E., B´ecigneul, G., and Hofmann, T. Hyperbolic entailment cones for learning hierarchical embeddings. 2007. Ganea, O.-E., B ecigneul, G. and Hofmann, T. Hyperbolic entailment cones for learnhierarchical embeddeds。 0.85
In Dy, J. and Krause, A. Dy, J. and Krause, A 0.68
(eds. ), Proceedings of the 35th International Conference on Machine Learning, volume 80 of Proceedings of Machine Learning Research, pp. (eds)。 第35回機械学習国際会議(international conference on machine learning, volume 80 of proceedings of machine learning research, pp。 0.81
1646– 1655, Stockholmsm¨assan, Stockholm Sweden, 10–15 Jul 2018. 1646-1655年ストックホルム・シャサン、ストックホルム・スウェーデン、2018年10-15年。 0.55
PMLR. URL http://proceedings.m lr. PMLR。 URL http://proceedings.m lr 0.78
press/v80/ganea18a.h tml. press/v80/ganea18a.h tml 0.31
Goh, K.-I., Cusick, M. E., Valle, D., Childs, B., Vidal, M., and Barab´asi, A.-L. Goh, K.-I., Cusick, M. E., Valle, D., Childs, B., Vidal, M., Barab ́asi, A.-L。 0.95
The human disease network. 人間の病気のネットワーク。 0.85
Proceedings of the National Academy of Sciences, 104 (21):8685–8690, 2007. 国立科学アカデミー紀要, 104 (21):8685-8690, 2007 0.61
Grattarola, D., Zambon, D., Livi, L., and Alippi, C. Change detection in graph streams by learning graph embedIEEE Trans. grattarola, d., zambon, d., livi, l., alippi, c. グラフストリームにおけるグラフ埋め込みの学習による変化検出
訳抜け防止モード: grattarola, d., zambon, d., livi, l. alippi, c. learning graph embeddedieee trans によるグラフストリームの変更検出。
0.73
dings on constant-curvature manifolds. 定曲率多様体上のディング 0.47
Neural Networks Learn. ニューラルネットワークが学習する。 0.66
Syst., 31(6):1856–1869, 2020. doi: 10.1109/TNNLS.2019.2 927301. Syst., 31(6):1856–1869, 2020. doi: 10.1109/TNNLS.2019.2 927301. 0.63
URL https: //doi.org/10.1109/TN NLS.2019.2927301. URL https: //doi.org/10.1109/TN NLS.2019.2927301 0.35
Gu, A., Sala, F., Gunel, B., and R´e, C. Learning mixedIn Incurvature representations in product spaces. Gu, A., Sala, F., Gunel, B., R ́e, C. Learning mixedIn Incurvature representations in product space。 0.87
ternational Conference on Learning Representations, 2019. 英語) ternational conference on learning representations, 2019 0.81
URL https://openreview.n et/forum? URL https://openreview.n et/forum? 0.59
id=HJxeWnCcF7. id=HJxeWnCcF7。 0.56
Hagberg, A. A., Schult, D. A., and Swart, P. J. ハグベルク、A。 A., Schult, D. A., and Swart, P. J. 0.79
Exploring network structure, dynamics, and function using NetworkX. NetworkXを用いたネットワーク構造、動的、関数の探索。 0.88
In Varoquaux, G., Vaught, T., and Millman, J. Varoquaux, G., Vaught, T. and Millman, J. 0.76
(eds. ), Proceedings of the 7th Python in Science Conference, pp. (eds)。 第7回Python in Science Conference, pp。 0.68
11 – 15, Pasadena, CA USA, 2008. 2008年11月11日 - 15日、カリフォルニア州パサデナ。 0.74
Harper, F. M. and Konstan, J. Harper, F. M. and Konstan, J. 0.98
A. The MovieLens datasets: History and context. A。 MovieLensデータセット: 履歴とコンテキスト。 0.72
ACM Trans. Interact. ACMトランス。 相互作用。 0.67
Intell. Syst., 5(4), December 2015. インテリ。 第5巻、2015年12月。 0.40
ISSN 2160-6455. ISSN 2160-6455。 0.72
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
doi: 10.1145/2827872. 10.1145/2827872 0.70
URL https://doi.org/10. URL https://doi.org/10。 0.58
1145/2827872. 1145/2827872. 0.71
He, X., Liao, L., Zhang, H., Nie, L., Hu, X., and Chua, T.-S. Neural collaborative filtering. He, X., Liao, L., Zhang, H., Nie, L., Hu, X., Chua, T.-S. Neural collaborative filtering。 0.87
In Proceedings of the 26th International Conference on World Wide Web, WWW ’17, pp. 第26回world wide web国際会議の議事録 www ’17, pp. 0.71
173–182, Republic and Canton of Geneva, CHE, 2017. International World Wide Web Conferences Steering Committee. 173–182, Republic and Canton of Geneva, CHE, 2017 International Wide Web Conferences Steering Committee 0.78
ISBN 9781450349130. doi: 10. isbn 9781450349130. doi: 10。 0.66
1145/3038912.3052569 . 1145/3038912.3052569 . 0.50
URL https://doi.org/ 10.1145/3038912.3052 569. URL https://doi.org/ 10.1145/3038912.3052 569 0.48
Helgason, S. Differential geometry, Lie groups, and symmetric spaces. ヘルガソン、S.微分幾何学、リー群、対称空間。 0.67
Academic Press New York, 1978. 1978年、ニューヨーク大学教授。 0.59
ISBN 0123384605. ISBN0123384605。 0.77
Hsieh, C.-K., Yang, L., Cui, Y., Lin, T.-Y., Belongie, S., and Estrin, D. Collaborative metric learning. Hsieh, C.-K., Yang, L., Cui, Y., Lin, T.-Y., Belongie, S., and Estrin, D. Collaborative metric learning。 0.98
In Proceedings of the 26th International Conference on World Wide Web, WWW ’17, pp. 第26回world wide web国際会議の議事録 www ’17, pp. 0.71
193–201, Republic and Canton of Geneva, CHE, 2017. International World Wide Web Conferences Steering Committee. 193–201, Republic and Canton of Geneva, CHE, 2017 International Wide Web Conferences Steering Committee
訳抜け防止モード: 193–201, Republic and Canton of Geneva, CHE, 2017 International World Wide Web Conferences Steering Committee(英語)
0.87
ISBN 9781450349130. doi: 10. isbn 9781450349130. doi: 10。 0.66
1145/3038912.3052639 . 1145/3038912.3052639 . 0.50
URL https://doi.org/ 10.1145/3038912.3052 639. URL https://doi.org/ 10.1145/3038912.3052 639 0.47
Huang, Z. and Gool, L. V. A Riemannian network for SPD matrix learning. Huang, Z. and Gool, L. V. A Riemannian Network for SPD matrix learning 0.92
In Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence, AAAI’17, pp. AAAI'17, pp. 30th-First AAAI Conference on Artificial Intelligence に参加して 0.82
2036–2042. 2036–2042. 0.71
AAAI Press, 2017. AAAIプレス、2017年。 0.85
Huang, Z., Wu, J., and Gool, L. V. Building deep networks on Grassmann manifolds. Huang, Z., Wu, J., and Gool, L. V. グラスマン多様体上の深いネットワークを構築する。 0.80
In McIlraith, S. A. and Weinberger, K. Q. McIlraith, S. A. and Weinberger, K. Q。 0.93
(eds. ), Proceedings of the Thirty-Second AAAI Conference on Artificial Intelligence, (AAAI-18), the 30th Innovative Applications of Artificial Intelligence (IAAI-18), and the 8th AAAI Symposium on Educational Advances in Artificial Intelligence (EAAI-18), New Orleans, Louisiana, USA, February 2-7, 2018, pp. (eds)。 第30回 aaai conference on artificial intelligence (aaai-18), the 30th innovative applications of artificial intelligence (iaai-18), and the 8th aaai symposium on educational advances in artificial intelligence (eaai-18), new orleans, louisiana, usa, february 2-7, 2018, pp。 0.79
3279–3286. 3279–3286. 0.71
AAAI Press, 2018. AAAIプレス、2018年。 0.78
URL https://www.aaai.org /ocs/index.php/ AAAI/AAAI18/paper/vi ew/16846. URL https://www.aaai.org /ocs/index.php/AAAI/ AAAI18/paper/view/16 846。 0.28
Kochurov, M., Karimov, R., and Kozlukov, S. Geoopt: ArXiv, Kochurov, M., Karimov, R., and Kozlukov, S. Geoopt: ArXiv, 0.90
Riemannian optimization in PyTorch. PyTorchにおけるリーマン最適化 0.66
abs/2005.02819, 2020. abs/2005.02819, 2020 0.70
Krioukov, D., Papadopoulos, F., Vahdat, A., and Bogu˜n´a, M. On Curvature and Temperature of Complex Networks. Krioukov, D., Papadopoulos, F., Vahdat, A., and Bogu 'n ́a, M. On Curvature and temperature of Complex Networks 0.95
Physical Review E, 80(035101), Sep 2009. physical review e, 80(035101), sep 2009 を参照。 0.77
Krioukov, D., Papadopoulos, F., Kitsak, M., Vahdat, A., and Bogu˜n´a, M. Hyperbolic geometry of complex networks. Krioukov, D., Papadopoulos, F., Kitsak, M., Vahdat, A., and Bogu 'n ́a, M. Hyperbolic geometry of complex networks。 0.96
Physical review. E, Statistical, nonlinear, and soft matter physics, 82:036106, 09 2010. doi: 10.1103/PhysRevE.82. 物理的レビュー。 e, statistical, nonlinear, and soft matter physics, 82:036106, 09 2010 doi: 10.1103/physreve.82。 0.76
036106. Law, M. T. and Stam, J. Ultrahyperbolic representation learning. 036106. Law, M. T. and Stam, J. Ultrahyperbolic representation learning 0.90
In Larochelle, H., Ranzato, M., Hadsell, R., Balcan, M., and Lin, H. Larochelle, H., Ranzato, M., Hadsell, R., Balcan, M., Lin, H。 0.73
(eds. ), Advances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 6-12, 2020, virtual, 2020. (eds)。 ニューラル情報処理システムの進歩 33: annual conference on neural information processing systems 2020, neurips 2020, december 6-12, 2020, virtual, 2020 0.75
Liu, W., Wen, Y., Yu, Z., Li, M., Raj, B., and Song, L. SphereFace: Deep hypersphere embedding for face recognition. Liu, W., Wen, Y., Yu, Z., Li, M., Raj, B., and Song, L. SphereFace: 顔認識のためのディープハイパースフィア埋め込み。 0.81
In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 2017年、IEEE Conference on Computer Vision and Pattern Recognition (CVPR) に参加。 0.76
6738–6746, 2017. doi: 10.1109/CVPR.2017.71 3. 6738-6746, 2017年: 10.1109/CVPR.2017.71 3。 0.45
L´opez, F. and Strube, M. A fully hyperbolic neural model for hierarchical multi-class classification. L ́opez, F. and Strube, M. 階層型多クラス分類のための完全双曲型ニューラルモデル。 0.72
In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. the association for computational linguistics: emnlp 2020, pp。 0.54
460–475, Online, November 2020. 460-475、オンライン、2020年11月。 0.59
Association for Computational Linguistics. URL https://www.aclweb.o rg/anthology/ 2020.findings-emnlp. 42. 計算言語学会会員。 URL https://www.aclweb.o rg/Anthology/ 2020.findings-emnlp. 42 0.45
L´opez, F., Heinzerling, B., and Strube, M. Fine-grained In Proceedings of entity typing in hyperbolic space. L ́opez, F., Heinzerling, B., and Strube, M. Fine-fine In Proceedings of entity typing in hyperbolic space。 0.93
the 4th Workshop on Representation Learning for NLP (RepL4NLP-2019), pp. The 4th Workshop on Representation Learning for NLP (RepL4NLP-2019), pp。 0.89
169–180, Florence, Italy, August 2019. 169-180年、フィレンツェ、イタリア、2019年8月。 0.61
Association for Computational Linguistics. doi: 10. 計算言語学会会員。 ドイ:10です 0.49
18653/v1/W19-4319. 18653/v1/W19-4319。 0.31
URL https://www.aclweb. url https://www.aclweb。 0.65
org/anthology/W19-43 19. org/アンソロジー/W19-4319。 0.29
McAuley, J. and Leskovec, J. McAuley, J. and Leskovec, J. 0.94
Learning to discover social circles in ego networks. egoネットワークにおけるソーシャルサークルの発見を学ぶこと。 0.71
In Proceedings of the 25th International Conference on Neural Information Processing Systems - Volume 1, NIPS’12, pp. 第25回神経情報処理システム国際会議紀要 - volume 1, nips'12, pp. 0.65
539–547, Red Hook, NY, USA, 2012. 539-547, Red Hook, NY, USA, 2012 0.88
Curran Associates Inc. Curran Associates Inc. 0.85
Meng, Y., Huang, J., Wang, G., Zhang, C., Zhuang, H., Kaplan, L., and Han, J. Spherical text embedding. Meng, Y., Huang, J., Wang, G., Zhang, C., Zhuang, H., Kaplan, L., Han, J. Spherical text embedded
訳抜け防止モード: Meng, Y., Huang, J., Wang, G. Zhang, C., Zhuang, H., Kaplan, L. とHan , J. Spherical text embedding である。
0.90
In Wallach, H., Larochelle, H., Beygelzimer, A., d'Alch´e-Buc, F., Fox, E., and Garnett, R. Wallach, H., Larochelle, H., Beygelzimer, A., d'Alch ́e-Buc, F., Fox, E., Garnett, R。 0.93
(eds. ), Advances in Neural Information Processing Systems, pp. (eds)。 神経情報処理システムにおける進歩, pp。 0.73
8208–8217. 8208–8217. 0.71
Curran Associates, volume 32, Inc., 2019. Curran Associates, Volume 32, Inc., 2019 0.72
URL https://proceedings. URL https://proceedings. com 0.68
neurips.cc/paper/201 9/file/ 043ab21fc5a1607b381a c3896176dac6-Paper. neurips.cc/paper/201 9/file/043ab21fc5a16 07b381ac3896176-Pape r 0.17
pdf. Nickel, M. and Kiela, D. Poincar´e embeddings for learning hierarchical representations. pdf。 Nickel, M. and Kiela, D. Poincar ́e embeddings for learnhierarchical representations。 0.84
In Guyon, I., Luxburg, U. V., Bengio, S., Wallach, H., Fergus, R., Vishwanathan, S., and Garnett, R. guyon, i., luxburg, u. v., bengio, s., wallach, h., fergus, r., vishwanathan, s. and garnett, r.
訳抜け防止モード: ガイオン, I., Luxburg, U.V., Bengio, S., Wallach, H., Fergus, R., Vishwanathan, S. とGarnett , R。
0.82
(eds. ), Advances in Neural Information Processing Systems 30, pp. (eds)。 ) 神経情報処理システム30の進歩, pp。 0.74
6341–6350. 6341–6350. 0.71
Curran Associates, Inc., 2017. Curran Associates, Inc., 2017。 0.79
URL https://proceedings. URL https://proceedings. com 0.68
neurips.cc/paper/201 7/file/ 59dfa2df42d9e3d41f5b 02bfc32229dd-Paper. neurips.cc/paper/201 7/file/59dfa2df42d9e 3d41f5b02bc32229dd-P aper 0.14
pdf. pdf。 0.82
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
Nickel, M. and Kiela, D. Learning continuous hierarchies in the Lorentz model of hyperbolic geometry. Nickel, M. and Kiela, D. Learning continuous hierarchies in the Lorentz model of hyperbolic geometry。 0.90
In Dy, J. and Krause, A. Dy, J. and Krause, A 0.68
(eds. ), Proceedings of the 35th International Conference on Machine Learning, volume 80 of Proceedings of Machine Learning Research, pp. (eds)。 第35回機械学習国際会議(international conference on machine learning, volume 80 of proceedings of machine learning research, pp。 0.81
3779– 3788, Stockholmsm¨assan, Stockholm Sweden, 10–15 Jul 2018. 3779–3788、ストックホルム・スウェーデンのストックホルムムム・ジャスサン、2018年10–15ユル。 0.50
PMLR. URL http://proceedings.m lr. PMLR。 URL http://proceedings.m lr 0.78
press/v80/nickel18a. html. press/v80/nickel18a. html 0.31
Sala, F., De Sa, C., Gu, A., and Re, C. Representation tradeoffs for hyperbolic embeddings. Sala, F., De Sa, C., Gu, A., Re. Representation tradeoffs for hyperbolic embeddeds。
訳抜け防止モード: Sala, F., De Sa, C., Gu, A. and Re , C. Representation tradeoffs for hyperbolic embeddeds
0.81
In Dy, J. and Krause, A. Dy, J. and Krause, A 0.68
(eds. ), Proceedings of the 35th International Conference on Machine Learning, volume 80 of Proceedings of Machine Learning Research, pp. (eds)。 第35回機械学習国際会議(international conference on machine learning, volume 80 of proceedings of machine learning research, pp。 0.81
4460– 4469, Stockholmsm¨assan, Stockholm Sweden, 10–15 Jul 2018. 4460-4469、ストックホルム・シャサン、ストックホルム・スウェーデン、Jul 2018。 0.57
PMLR. URL http://proceedings.m lr. PMLR。 URL http://proceedings.m lr 0.78
press/v80/sala18a.ht ml. press/v80/sala18a.ht ml 0.30
Nielsen, F. and Sun, K. Clustering in Hilbert’s Projective Geometry: The Case Studies of the Probability Simplex and the Elliptope of Correlation Matrices, pp. ニールセン, F. and Sun, K. Clustering in Hilbert's Projective Geometry: The Case Studies of the Probability Simplex and the Elliptope of correlation Matrices, pp. 0.87
297–331. Springer International Publishing, Cham, 2019. 297–331. Springer International Publishing, Cham, 2019。 0.76
ISBN 978-3-030-02520-5. doi: 10.1007/ 978-3-030-02520-5 11. ISBN 978-3-030-02520-5. doi: 10.1007/ 978-3-030-02520-5 11 0.38
URL https://doi.org/ 10.1007/978-3-030-02 520-5_11. URL https://doi.org/ 10.1007/978-3-030-02 520-5_11 0.33
Nooy, W. D., Mrvar, A., and Batagelj, V. Exploratory Social Network Analysis with Pajek. Nooy, W. D., Mrvar, A., Batagelj, V. Exploratory Social Network Analysis with Pajek 0.80
Cambridge University Press, USA, 2011. ケンブリッジ大学出版局、2011年。 0.52
ISBN 0521174805. ISBN0521174805。 0.65
Paszke, A., Gross, S., Massa, F., Lerer, A., Bradbury, J., Chanan, G., Killeen, T., Lin, Z., Gimelshein, N., Antiga, L., Desmaison, A., Kopf, A., Yang, E., DeVito, Z., Raison, M., Tejani, A., Chilamkurthy, S., Steiner, B., Fang, L., Bai, J., and Chintala, S. Pytorch: An imperative style, high-performance deep learning library. Paszke, A., Gross, S., Massa, F., Lerer, A., Bradbury, J., Chanan, G., Killeen, T., Lin, Z., Gimelshein, N., Antiga, L., Desmaison, A., Kopf, A., Yang, E., DeVito, Z., Raison, M., Tejani, A., Chilamkurthy, S., Steiner, B., Fang, Bai, J., Chintala, S. Pytorch
訳抜け防止モード: Paszke, A., Gross, S., Massa, F. Lerer, A., Bradbury, J., Chanan, G. Killeen, T., Lin, Z., Gimelshein, N. Antiga, L., Desmaison, A., Kopf, A. Yang, E., DeVito, Z., Raison, M. Tejani, A., Chilamkurthy, S., Steiner, B. Fang, L., Bai, J., and Chintala, S. Pytorch : 命令型スタイル High - パフォーマンスの深い学習ライブラリ。
0.85
In Wallach, H., Larochelle, H., Beygelzimer, A., d'Alch´e-Buc, F., Fox, E., and Garnett, R. Wallach, H., Larochelle, H., Beygelzimer, A., d'Alch ́e-Buc, F., Fox, E., Garnett, R。 0.93
(eds. ), Advances in Neural Information Processing Systems 32, pp. (eds)。 ) 神経情報処理システム32, pp。 0.67
8024–8035. 8024–8035. 0.71
Curran Associates, Inc., 2019. Curran Associates, Inc., 2019 0.71
Pennec, X. Manifold-Valued Image Processing with SDP Matrices. SDP行列を用いたPennec, X. Manifold-Valued Image Processing 0.61
In Riemannian Geometric Statistics in Medical Image Analysis, pp. Riemannian Geometric Statistics in Medical Image Analysis, pp. 0.76
75–134. Academic Press, 2020. 75–134. 新聞社、2020年。 0.63
Pham, T. N., Li, X., Cong, G., and Zhang, Z. Pham, T. N., Li, X., Cong, G., Zhang, Z。 0.80
A general graph-based model for recommendation in event-based social networks. イベントベースのソーシャルネットワークにおける一般的なグラフベースのレコメンデーションモデル 0.66
In 2015 IEEE 31st International Conference on Data Engineering, pp. 2015年、IEEE 31st International Conference on Data Engineering, pp。 0.85
567–578, 2015. doi: 10.1109/ICDE.2015.71 13315. 567–578, 2015 doi: 10.1109/icde.2015.71 13315 0.52
Ratliff, N. D., Wyk, K. V., Xie, M., Li, A., and Rana, M. A. Generalized nonlinear and Finsler geometry for robotics. ratliff, n. d., wyk, k. v., xie, m., li, a. and rana, m. a. general nonlinear and finsler geometry for robotics. 0.83
CoRR, abs/2010.14745, 2020. CoRR, abs/2010.14745, 2020 0.78
URL https://arxiv. url https://arxiv。 0.82
org/abs/2010.14745. org/abs/2010.14745。 0.36
Rossi, R. A. and Ahmed, N. K. The network data repository with interactive graph analytics and visualization. Rossi, R. A. and Ahmed, N. K. インタラクティブなグラフ分析と視覚化を備えたネットワークデータリポジトリ。 0.83
In AAAI, 2015. 2015年、AAAI。 0.69
URL http://networkreposi tory. URL http://networkreposi tory.com 0.72
com. Rubin-Delanchy, P. Manifold structure in graph embeddings, 2020. だ。 Rubin-Delanchy, P. Manifold structure in graph embeddeds, 2020 0.69
URL https://arxiv.org/ab s/ 2006.05168. url https://arxiv.org/ab s/200605168。 0.52
Siegel, C. L. Siegel, C. L. 0.99
American Journal of Mathematics, 65(1):1–86, 1943. American Journal of Mathematics, 65(1):1-86, 1943 0.90
ISSN 00029327, 10806377. ISSN 00029327, 10806377 0.63
URL http://www.jstor. URL http://www.jstor.com 0.58
org/stable/2371774. org/stable/2371774。 0.48
Symplectic geometry. シンプレクティック幾何学。 0.65
Skopek, O., Ganea, O.-E., and Becigneul, G. MixedIn 8th Internacurvature variational autoencoders. Skopek, O., Ganea, O.-E., and Becigneul, G. MixedIn 8th Internacurvature 変分オートエンコーダ 0.83
tional Conference on Learning Representations (ICLR), April 2020. 学習表現に関する国際会議(iclr)2020年4月開催。 0.72
URL https://openreview.n et/ pdf?id=S1g6xeSKDS. URL https://openreview.n et/ pdf?id=S1g6xeSKDS 0.55
Takagi, T. On an algebraic problem related to an analytic theorem of carath´eodory and fej´er and on an allied theorem of Landau. 高木, T. カラス ́eodory と fej ́er の分析定理とランダウの同盟定理に関する代数的問題。 0.59
Japanese journal of mathematics :transactions and abstracts, 1:83–93, 1924. doi: 10.4099/jjm1924.1.0 83. 日本数学雑誌『transactions and abstracts』1:83-93, 1924. doi: 10.4099/jjm1924.1.0 83 0.63
Tifrea, A., B´ecigneul, G., and Ganea, O.-E. Poincare GloVe: Hyperbolic word embeddings. Tifrea, A., B ecigneul, G. and Ganea, O.-E. Poincare GloVe: 双曲語埋め込み。 0.89
In 7th International Conference on Learning Representations, ICLR, New Orleans, LA, USA, May 2019. 第7回学習表現に関する国際会議, iclr, new orleans, la, usa, may 2019で開催。 0.81
URL https: //openreview.net/for um?id=Ske5r3AqK7. URL https: //openreview.net/for um?id=Ske5r3AqK7。 0.44
Vinh Tran, L., Tay, Y., Zhang, S., Cong, G., and Li, X. HyperML: A boosting metric learning approach in In Prohyperbolic space for recommender systems. Vinh Tran, L., Tay, Y., Zhang, S., Cong, G., Li, X. HyperML:レコメンデータシステムのためのIn Proproproerbolic空間におけるメトリクス学習の促進アプローチ。 0.79
ceedings of the 13th International Conference on Web Search and Data Mining, WSDM ’20, pp. 第13回国際ウェブ検索・データマイニング会議(wsdm'20, pp.)参加報告
訳抜け防止モード: 第13回Web検索・データマイニング国際会議に参加して WSDM'20, pp。
0.73
609–617, New York, NY, USA, 2020. 609-617, New York, NY, USA, 2020 0.76
Association for Computing Machinery. アソシエーション・フォー・コンピューティング・マシンズ(Association for Computing Machinery)の略。 0.36
ISBN 9781450368223. doi: 10.1145/ 3336191.3371850. ISBN9781450368223. doi: 10.1145/3336191.3371 850 0.65
URL https://doi.org/10. URL https://doi.org/10。 0.58
1145/3336191.3371850 . 1145/3336191.3371850 . 0.50
Wilson, R. C., Hancock, E. R., Pekalska, E., and Duin, R. P. W. Spherical and hyperbolic embeddings of data. Wilson, R. C., Hancock, E. R., Pekalska, E., and Duin, R. P. W. Spherical and hyperbolic embeddeds of data。 0.98
IEEE Transactions on Pattern Analysis and Machine Intelligence, 36(11):2255–2269, 2014. IEEE Transactions on Pattern Analysis and Machine Intelligence, 36(11):2255–2269, 2014 0.91
Xu, J. and Durrett, G. Spherical latent spaces for stable In Proceedings of the 2018 variational autoencoders. Xu, J. and Durrett, G. Spherical latent spaces for stable In Proceedings of the 2018 variational autoencoders。 0.87
Conference on Empirical Methods in Natural Language Processing, 2018. 自然言語処理における経験的手法に関する国際会議 0.70
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
A. Symmetric Spaces: a Short Overview Riemannian symmetric spaces have been extensively studied by mathematicians, and there are many ways to characterize them. A.対称性空間: ショート・オーバービュー リーマン対称空間は数学者によって広く研究されており、それらを特徴づける多くの方法がある。
訳抜け防止モード: A.対称性空間 ショートオーバービュー リーマン対称空間は数学者によって広く研究されている。 特徴づける方法はたくさんあります
0.81
They can be described as simply connected Riemannian manifolds, for which the curvature is covariantly constant, or Riemannian manifolds, for which the geodesic reflection in each point defines a global isometry of the space. これらは、曲率が共変定数である単連結リーマン多様体や、各点の測地線反射が空間の大域等距離を定義するリーマン多様体と記述できる。
訳抜け防止モード: これらは単純連結リーマン多様体として記述でき、曲率は共変定数である。 リーマン多様体(リーマン多様体) 各点の測地線反射は 空間のグローバルな等距離を定義する
0.69
A key consequence is that symmetric spaces are homogeneous manifolds, which means in particular that the neighbourhood of any point in the space looks the same, and moreover that they can be efficiently described by the theory of semisimple Lie groups. 鍵となる結果として、対称空間は一様多様体であり、特に空間内の任意の点の近傍が同じように見えること、さらにそれらは半単純リー群の理論によって効率的に記述できる。 0.80
To be more precise a symmetric space is a Riemannian manifold (M, g) such that for any point p ∈ M, the geodesic reflection at p is induced by a global isometry of M. A direct consequence is that the group of isometries Isom(M, g) acts transitively on M, i.e. より正確に言うと、対称空間はリーマン多様体 (m, g) であり、任意の点 p ∈ m に対して、p における測地線反射は m の大域的等長性によって誘導される。
訳抜け防止モード: より正確に対称な空間に 任意の点 p ∈ m に対してリーマン多様体 (m, g ) である。 p における測地線反射は m の大域的等長法によって引き起こされる。 イソメトリの群 isom(m, g) は m,i,e 上で推移的に作用する。
0.82
given p, q ∈ M there exists g ∈ Isom(M, g) such that g(p) = q. p, q ∈ M が与えられたとき、g(p) = q となるような g ∈ Isom(M, g) が存在する。 0.85
Thus symmetric spaces are homogeneous manifolds, which means in particular that the neighbourhood of any point in the space looks the same. したがって、対称空間は同次多様体であり、特に空間の任意の点の近傍が同じように見えることを意味する。 0.76
This leads to an efficient description by the theory of semisimple Lie groups: M = G/K where G = Isom0(M) and K, a compact Lie group, is the stabilizer of a point p ∈ M. これは半単純リー群の理論による効率的な記述をもたらす: M = G/K ここで G = Isom0(M) と K はコンパクトリー群であり、点 p ∈ M の安定化である。 0.83
A.1. Classification Every symmetric space (M, g) can be decomposed into an (almost) product M = M1 ×···× Mk of symmetric spaces. A.1。 分類 すべての対称空間 (M, g) は(ほぼ)積 M = M1 ×····× Mk に分解することができる。 0.75
A symmetric space is irreducible, if it cannot be further decomposed into a Riemannian product M = M1 × M2. 対称空間は、さらにリーマン積 M = M1 × M2 に分解できないならば、既約である。 0.75
We restrict our discussion to these fundamental building blocks, the irreducible symmetric spaces. 我々はこれらの基本構成ブロック、既約対称空間に議論を限定する。 0.74
Irreducible symmetric spaces can be distinguished in two classes, the symmetric spaces of compact type, and the symmetric spaces of non-compact type, with an interesting duality between them. 既約対称空間はコンパクト型の対称空間と非コンパクト型の対称空間の2つのクラスで区別でき、それらの間に興味深い双対性がある。 0.84
Apart from twelve exceptional examples, there are eleven infinite families of pairs of symmetric spaces X of compact and non-compact type, which we summarize in Table 6. 12の例外的な例を除いて、コンパクト型と非コンパクト型の対称空間 x の対の無限族は 11 つあり、これは表 6 にまとめる。 0.76
We refer the reader to Helgason (1978) for more details and a list of the exceptional examples. 読者はヘルガソン (1978) に詳細と例外例のリストを引用する。 0.51
Remark. Observe that, due to isomorphisms in low dimensions, the first cases of each of the above series is a hyperbolic space (of the suitable dimension). コメント。 低次元の同型性のため、上記の級数のそれぞれの最初のケースは(適当な次元の)双曲空間である。 0.49
Using this one can construct many natural hyperbolic spaces as totally geodesic submanifolds of the symmetric spaces above. これを用いることで、上の対称空間の完全測地部分多様体として多くの自然双曲空間を構築することができる。
訳抜け防止モード: これを使う 上の対称空間の完全測地部分多様体として多くの自然双曲空間を構成することができる。
0.62
We listed them in Table 7 for the reader’s convenience. 読者の利便性のために、テーブル7にリストした。 0.70
Rank: An important invariant of a symmetric space M is its rank, which is the maximal dimension of an (isometrically embedded) Euclidean submanifold. ランク: 対称空間 M の重要な不変量はその階数であり、これは(等尺的に埋め込まれた)ユークリッド部分多様体の最大次元である。 0.74
In a rank r non-compact symmetric space, such submanifolds are isometric to Rn, and called maximal flats. 階数 r の非コンパクト対称空間において、そのような部分多様体は Rn に等角であり、極大平面と呼ばれる。 0.55
In a compact symmetric space, コンパクトな対称空間において 0.85
they are compact Euclidean manifolds such as tori. これらはトーリーのようなコンパクトユークリッド多様体である。 0.52
Some of the rich symmetry of symmetric spaces is visible in the distribution of flats. 対称空間のリッチ対称性のいくつかは平面の分布で見ることができる。 0.81
As homogeneous spaces, each point of a symmetric space M must lie in some maximal flat, but in fact for every pair p, q of points in M, one may find some maximal flat containing them. 等質空間として、対称空間 M の各点は、ある極大平坦でなければならないが、実際、M のすべての対 p, q に対して、それらを含む極大平坦を見つけることができる。 0.74
The ability to move any pair of points into a fixed maximal flat by symmetries renders many quantities (such as the metric distances described below) computationally feasible. 対称性により任意の一対の点を固定された極大平面に移動させる能力は、計算的に実現可能である(下記の計量距離など)。 0.70
A.2. Duality Compactness provides a useful dichotomy for irreducible symmetric spaces. A.2。 双対性 コンパクト性は既約対称空間に対して有用な二分法を与える。 0.57
Symmetric spaces of compact type are compact and of non-negative sectional curvature. コンパクト型の対称空間はコンパクトで非負の断面曲率である。 0.78
The basic example being the sphere Sn. 基本的な例は球面 Sn である。 0.78
Symmetric spaces of non-compact type are non-compact, in fact they are homeomorphic to Rn and of non-positive sectional curvature. 非コンパクト型の対称空間は非コンパクトであり、実際には Rn に同型であり、非正の断面曲率である。 0.65
The basic example being the hyperbolic spaces Hn. 基本例は双曲空間 Hn である。 0.64
There is a duality between the symmetric spaces of noncompact type and those of compact type, pairing every noncompact symmetric space with its compact ’partner’ or dual. 非コンパクト型対称空間とコンパクト型対称空間の間に双対性があり、すべての非コンパクト対称空間とコンパクトな「パートナー」あるいは双対性を持つ。 0.80
Figure 6. The duality between the hyperbolic plane and sphere is the basic example of the duality between symmetric spaces of compact and noncompact type. 図6。 双曲平面と球面の間の双対性はコンパクト型と非コンパクト型の対称空間の間の双対性の基本例である。 0.75
Duality for symmetric spaces generalizes the relationship between spheres and hyperbolic spaces, as well as between classical and hyperbolic trigonometric functions. 対称空間の双対性は球面と双曲空間、古典的および双曲三角関数の間の関係を一般化する。 0.78
In the reference Table 6, we provide for each family of symmetric spaces an explicit realization of both the noncompact symmetric space and its compact dual as coset spaces G/K. 参照表6では、各対称空間の族に対して、非コンパクト対称空間とそのコンパクト双対を余集合空間 G/K として明示的な実現を与える。 0.79
A.3. Vector-Valued Distance A.3。 ベクトル値距離 0.68
The familiar geometric invariant of pairs of points is simply the distance between them. 点の対の使い慣れた幾何学的不変量は、それらの間の距離である。 0.52
For rank n symmetric spaces, this one dimensional invariant is superseded by an n-dimensional invariant: the vector valued distance. 階数 n 対称空間に対して、この一次元不変量は n 次元不変量(ベクトル値距離)に取って代わられる。 0.63
Abstractly, one computes this invariant as follows: for a symmetric space M with Isom0(M ) = G, choose a distinguished basepoint m ∈ M, and let K < G be the subgroup of symmetries fixing m. Additionally choose a distinguished maximal flat F ⊂ M containing m, and an identification of this flat with Rn. 抽象的には、この不変量を計算する: isom0(m ) = g の対称空間 m に対して、識別基点 m ∈ m を選択し、k < g を m を固定する対称性の部分群とする。
訳抜け防止モード: 抽象的に、この不変量を計算する: Isom0(M ) = G の対称空間 M に対して。 区別された基底点 m ∈ M を選択し、K < G を対称性固定 m の部分群とする。 そして、この平面を Rn と同一視する。
0.67
Given any pair of points 一対の点が与えられると 0.53
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
Type Non-compact AI A BDI AIII CI DIII CII AII D B C タイプ非コンパクトAI A BDI AIII CI DIII CII AII D B C 0.81
SL(n, R)/SO(n, R) SL(n, C)/SU(2) SO(p, q)/SO(p) × SO(q) SU(p, q)/SU(p) × SU(q) Sp(2n, R)/U(n) SO∗(2n)/U(n) Sp(p, q)/Sp(p) × Sp(q) SL(n, H)/Sp(n) SO(2n, C)/SO(2n) SO(2n + 1, C)/SO(2n + 1) Sp(n, C)/Sp(n) SL(n, R)/SO(n, R)/SO(n, C)/SU(2) SO(p, q)/SO(p) × SO(q) SU(p, q)/SU(p) × SU(q) Sp(2n, R)/U(n) SO∗(2n)/U(n) Sp(p, q)/Sp(p) × Sp(q) SL(n, H)/Sp(n) SO(2n, C)/SO(2n) SO(2n + 1, C)/SO(2n + 1) Sp(n, C)/Sp(n, C)/Sp(n) 0.98
Compact rkR n − 1 SU(n)/SO(n) (SU(n) × SU(n))/SU(n) n − 1 SO(p + q)/SO(p) × SO(q) min{p, q} SU(p + q)/SU(p) × SU(q) min{p, q} Sp(2n)/U(n) n 2(cid:99) (cid:98) n SO(2n)/U(n) Sp(p + q)/Sp(p) × Sp(q) min{p, q} n − 1 SU(2n)/Sp(n) (SO(2n) × SO(2n))/SO(2n) n (SO(2n + 1) × SO(2n + 1))/SO(2n + 1) n (Sp(n) × Sp(n))/Sp(n) n コンパクトrkR n − 1 SU(n)/SO(n) (SU(n) × SU(n))/SU(n) n − 1 SO(p + q)/SO(p) × SO(q) min{p, q} SU(p + q)/SU(p) × SU(q) min{p, q} Sp(2n)/U(n) n 2(cid:99) (cid:98) n SO(2n)/U(n) Sp(p + q)/Sp(p) × Sp(q) min{p, q} n − 1 SU(2n)/Sp(n) (SO(2n) × SO(2n)/SO(2n) (SO(2n) × SO(2n)/SO(2n) (SO(2n + ×SO(2n)/Sp(n)/Sp(n) 0.92
2 dim (n−1)(n+2) (n + 1)(n − 1) pq 2pq 2n(n + 1) n(n − 1) 4pq (n − 1)(2n + 1) n(2n − 1) n(2n + 1) 2 dim (n−1)(n+2) (n + 1)(n − 1) pq 2pq 2n(n + 1) n(n − 1) 4pq (n − 1)(2n + 1) n(2n − 1) n(2n + 1) 0.92
Table 6. The classical symmetric spaces. 表6。 古典対称空間。 0.65
Row CI represents the Siegel spaces and their compact duals. Row CI はシーゲル空間とそのコンパクト双対を表す。 0.73
Type Parameters AI 種類 パラメータ AI 0.79
A BDI AIII A BDI AIII 0.85
CI DIII CII CI DIII CII 0.85
AII D B C n = 2 AII D B C n = 2 0.85
n = 2 p = 1 n = 2 p = 1 0.85
p = 1, q = 1 p = 1, q = 1 0.85
n = 1 n = 2 n = 1 n = 2 0.85
p = q = 1 n = 1 p = q = 1 n = 1 0.85
n = 1 n = 1 n = 1 n = 1 0.85
n = 1 Symmetric space SL(2, R)/SO(2, R) SL(2, C)/SU(2) n = 1 対称空間 SL(2, R)/SO(2, R) SL(2, C)/SU(2) 0.87
H2 H3 Hq SO(1, q)/SO(q) SU(1, 1)/SU(1) × SU(1) H2 H2 Sp(2, R)/U(1) SO∗(4)/U(1) H2 Sp(1, 1)/Sp(1) × Sp(1) H4 H5 SL(2, H)/Sp(1) R∗ SO(2, C)/SO(2) H3 SO(3, C)/SO(3) Sp(1, C)/Sp(1) H3 H2 H3 Hq SO(1, q)/SO(q) SU(1, 1)/SU(1) × SU(1) H2 H2 Sp(2, R)/U(1) H2 Sp(1, R)/U(1) H2 Sp(1, 1)/Sp(1) × Sp(1) H4 H5 SL(2, H)/Sp(1) R∗ SO(2, C)/SO(2) H3 SO(3, C)/SO(3) Sp(1, C)/Sp(1) H3 0.97
Table 7. Hyperbolic spaces for low parameters 表7。 低パラメータに対する双曲空間 0.76
p, q ∈ M, one may find an isometry g ∈ G moving p to m, and q to some other point g(q) = v ∈ F in the distinguished flat. p, q ∈ M, q は p から m へ移動する等距離 g ∈ G と、区別された平面の他の点 g(q) = v ∈ F への q を見つけることができる。 0.83
Under the identification of F with Rn, the difference vector v − m is a vector-valued invariant of the original two points, and determines the vector valued distance. F と Rn の同一視の下では、差分ベクトル v − m は元の2点のベクトル値不変量であり、ベクトル値距離を決定する。 0.81
(In practice we may arrange so that m is identified with 0, so this difference is simply v). (実際には m を 0 と同一視するように配置してもよいので、この差は単に v である)。 0.63
In rank 1, the flat F identifies with R1, and this difference vector v − m with a number. ランク 1 において、平坦 F は R1 と同一視し、この差分ベクトル v − m は数である。 0.74
This number encodes all geometric information about the pair (p, q) invariant under the symmetries of M. Indeed, the distance from p to q is simply its absolute value! この数は、M の対称性の下で、ペア (p, q) 不変量に関するすべての幾何学的情報を符号化する。 0.60
In rank n, “taking the absolute value” has an n-dimensional generalization, via a finite a finite group of symmetries of called the Weyl group. ランク n において、「絶対値を取る」ことは、ワイル群と呼ばれる対称性の有限群を通して n-次元の一般化を持つ。 0.73
This group W < K acts on the flat この群 W < K は平面上で作用する 0.78
F , and abstractly, the vector valued distance vDist(p, q) from p to q is this difference vector up to the action of the Weyl group. F と抽象的には、p から q へのベクトル値距離 vDist(p, q) は、ワイル群の作用までこの差分ベクトルである。 0.76
This vector valued distance vDist(p, q) is the complete invariant for pairs of points in M - it contains all geometric information about the pair which is invariant under all symmetries. このベクトル値距離 vDist(p, q) は M 内の点対に対する完全不変量であり、すべての対称性の下で不変である対に関するすべての幾何学的情報を含んでいる。 0.75
In particular, given the vector valued distance vDist(p, q), the (Riemannian) distance from p to q is trivial to compute - it is given by the length of vDist(p, q) in Rn. 特に、ベクトル値付き距離 vDist(p, q) が与えられたとき、p から q への(リーマン的)距離は計算しやすく、Rn における vDist(p, q) の長さによって与えられる。 0.82
The identification of F with Rn makes this more explicit. F と Rn との同一視は、これをより明確にする。 0.53
Here the Weyl group acts as a group of linear transformations, which divide Rn into a collection of conical fundamental domains for the action, known as Weyl chambers. ここでワイル群は線型変換の群として作用し、これは Rn をワイルチャンバーとして知られる作用に対する円錐の基本領域の集合に分割する。 0.76
Choosing a fixed Weyl chamber C, we may use these symmetries to move our originally found difference vector v−m into C. The vector valued distance is this resulting vector vDist(p, q) ∈ C. 固定されたワイルチャンバー C を選択すると、これらの対称性を使って、もともと発見された差分ベクトル v−m を C へ移動させることができる。 0.69
Figure 7. A choice of Weyl chamber the Siegel spaces of rank n is given by C = {(vi) ∈ Rn | v1 ≥ v2 ≥ ··· ≥ vn ≥ 0}. 図7。 ランク n のシーゲル空間のワイル室の選択は c = {(vi) ∈ rn | v1 ≥ v2 ≥ ···· ≥ vn ≥ 0} で与えられる。 0.79
In rank 1, this is the nonnegative reals. ランク 1 において、これは非負実数である。 0.66
Illustrated here are ranks n = 2, 3. ここで示されるランクは n = 2, 3 である。 0.62
For example, in rank n Siegel space, the Weyl group acts on R2 by the reflection symmetries of a cube, and a choice of Weyl chamber amounts to a choice of linear ordering of the vector components with respect to zero. 例えば、ランク n のシーゲル空間において、ワイル群は立方体の反射対称性によって R2 上で作用し、ワイルチャンバーの選択は、零に関してベクトル成分の線型順序付けの選択に等しい。 0.71
One choice is shown in Figure 7. 1つの選択は図7に示されます。 0.72
In rank 2, this chamber is used to display the vector valued distances associated to edges and nodes ランク2では、このチャンバーはエッジとノードに関連するベクトル値距離を表示するために使用される 0.77
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
of an embedded graph in Figures 13-20. 図13-20の埋め込みグラフの 0.72
Note that once a Weyl chamber is picked it may be possible to find the vector valued distance corresponding to a vector in Rn without explicit use of the Weyl group: for the Siegel spaces this is by sorting the vector components in nondecreasing order. ワイル空間が選択されると、ワイル群を明示的に使用せずに Rn 内のベクトルに対応するベクトル値距離を見つけることができる:ジーゲル空間に対しては、ベクトル成分を非退化順序でソートする。 0.72
Computing Distance: The process for computing the vector valued distance is summarized below. 計算距離: ベクトル値距離を計算する過程を以下に要約する。 0.71
It is explicitly carried out for the Siegel spaces and their compact duals in Appendix B. これは、付録 b におけるジーゲル空間とそのコンパクト双対に対して明示的に実行される。 0.57
Let M, G, K, F, m be as in the previous section. M, G, K, F, m を前節と同様とする。 0.63
Choose an identification φ : F → Rn which sends the basepoint m to 0, and a Weyl chamber C ⊂ Rn for the Weyl group W . 基底点 m を 0 に写す識別 φ : F → Rn と、ワイル群 W に対するワイルチャンバー C > Rn を選択する。 0.70
For any pair of points p, q ∈ M; 任意の点 p, q ∈ M に対して、 0.65
1. Move p to the basepoint: 1. p をベースポイントに移動します。 0.71
Compute g ∈ G such that g(p) = m. g ∈ g を g(p) = m と計算する。 0.80
2. Move q into the flat: 2. qをフラットに移動させます 0.73
Compute k ∈ K such that k(g(q)) ∈ F . k ∈ K を k(g(q)) ∈ F とする。 0.72
Now both g(p) = m and k(g(q)) lie in the distinguished flat F . このとき、g(p) = m と k(g(q)) は区別された平坦 f に属する。 0.69
3. Identify the flat with Rn: 3. 平面を Rn で識別する。 0.70
Compute u = φ(k(g(q))) ∈ Rn. 計算 u = φ(k(g(q))) ∈ Rn である。 0.80
The points 0 and u represent p, q after being moved into the flat, respectively. 点 0 と u はそれぞれ平面に移動された後に p, q を表す。 0.74
(cid:107)(xi)(cid:10 7)(cid:96)1 =(cid:80) (cid:107)(xi)(cid:10 7)(cid:96)1 =(cid:80) 0.81
be defined by choosing a single norm on Rn. rn 上の単一のノルムを選択することで定義される。 0.53
We quickly review this theory below. 以下でこの理論を概観する。 0.71
Finsler Metrics on Rn: Any norm on Rn defines a Finsler metric. フィンスラー計量 Rn 上の任意のノルムはフィンスラー計量を定義する。 0.58
As norms on a vector space are uniquely determined by their unit spheres, the data of a Finsler metric is given by a convex polytope S containing 0. ベクトル空間上のノルムは単位球面によって一意に決定されるので、フィンスラー計量のデータは 0 を含む凸ポリトープ S によって与えられる。 0.78
An important example in this work is the (cid:96)1 Finsler metric on Rn, given by the norm i |xi|. この研究の重要な例は (cid:96)1 Finsler metric on Rn, given by the norm i |xi| である。 0.86
Its unit sphere is the boundary of the dual to the n-dimensional cube (in R2, this is again a square, but oriented at 45◦ with respect to the coordinate axes). その単位球面は n-次元立方体への双対の境界である(r2 では再び正方形であるが、座標軸に関して45 で向き付けられた)。 0.83
Given such an P , the Finsler norm (cid:107)v(cid:107)F of a vector v ∈ Rn (cid:96) v ∈ ∂P . そのような P が与えられたとき、ベクトル v ∈ Rn (cid:96) v ∈ ∂P のフィンスラーノルム (cid:107)v(cid:107)F が与えられる。 0.66
Figure 8 below is the unique positive (cid:96) such that 1 shows the spheres of radius 1 and 2 with respect to the (cid:96)1 metric on the plane. 下の図8は 1 が平面上の (cid:96)1 計量に関して半径 1 と 2 の球面を示すような一意の正 (cid:96) である。 0.84
4. Return the Vector Valued Distance: 4. ベクトル値距離を返します。 0.78
Compute v ∈ C such that v = Au for some element A ∈ W . ある元 A ∈ W に対して v = Au となるような v ∈ C を計算する。 0.70
This is the vector valued distance vDist(p, q) これはベクトル値距離 vDist(p, q) である。 0.92
Figure 8. Left: Vectors of length 1 and 2 with respect to the (cid:96)1 norm on R2. 図8。 左: R2 上の (cid:96)1 ノルムに関して長さ 1 と 2 のベクトル。 0.79
Right: three geodesics of length 4 in the (cid:96)1 metric (to same scale as left image). 右:長さ4の3つの測地線(cid:96)1メートル(左の画像と同じスケール)。 0.84
The Riemannian distance is computed directly from the vector valued distance as its Euclidean norm, dist(p, q) = (cid:107)vDist(p, q)(cid:107). リーマン距離はベクトル値距離から直接ユークリッドノルムとして計算され、dist(p, q) = (cid:107)vDist(p, q)(cid:107) となる。 0.83
A.4. Finsler Metrics A.4。 Finsler Metrics 0.76
A Riemannian metric on a manifold M is defined by a smooth choice of inner product on the tangent bundle. 多様体 M 上のリーマン計量は、接束上の内積の滑らかな選択によって定義される。 0.69
Finsler metrics generalize this by requiring only a smoothly varying choice of norm (cid:107) · (cid:107)F . フィンスラー計量は、滑らかに変化するノルム (cid:107) · (cid:107)F の選択だけを必要とすることでこれを一般化する。
訳抜け防止モード: finsler metricsは、これを一般化する 標準(cid:107 ) · (cid:107)f のスムーズな選択のみを必要とする。
0.66
The length of a curve γ is defined via integration of this norm along the path 曲線 γ の長さは、経路に沿ったこのノルムの統合によって定義される 0.82
LengthF (γ) = (cid:107)γ(cid:48)(cid:107)F dt, 長さF(γ) = (cid:107)γ(cid:48)(cid:107)F dt, 0.83
(cid:90) I (cid:90) 私 0.77
and the distance between points by the infimum of this over all rectifiable curves joining them 点間の距離は、これらを結ぶすべての直交可能な曲線のインフィムによって決まる。 0.60
dF (p, q) = inf{LengthF (γ) | γ(0) = p, γ(1) = q} dF(p, q) = inf{LengthF(γ) | γ(0) = p, γ(1) = q} 0.84
The geometry of symmetric spaces allows the computation of Finsler distances, like much else, to take place in a chosen maximal flat. 対称空間の幾何学は、フィンスラー距離の計算を他の多くのものと同様に、選択された極大平面で行うことができる。 0.68
On such flat spaces, the ability to identify all tangent spaces allow particularly simple Finsler metrics to そのような平坦空間上では、すべての接空間を識別できる能力は特に単純フィンスラー計量を許す。 0.54
While affine lines are geodesics in Finsler geometry, they need not be the unique geodesics between a pair of points. アフィン線はフィンスラー幾何学における測地学であるが、一対の点の間の唯一の測地学である必要はない。 0.52
Consider again Figure 8: the vector sum of the two unit vectors in is exactly the diagonal vector, which lies on the (cid:96)1 sphere of radius 2. 図8: 2つの単位ベクトルのベクトル和はちょうど対角ベクトルであり、これは半径 2 の (cid:96)1 球面上にある。 0.78
That is, in (cid:96)1 geometry traveling along the diagonal, or along the union of a vertical and horizontal side of a square both are distance minimizing paths of length 2. すなわち(cid:96)1次元が対角線に沿って、あるいは正方形の垂直面と水平面の結合に沿って移動する場合、長さ2の経路を最小化する距離である。 0.81
The (cid:96)1 metric is often called the ‘taxicab’ metric for this reason: much as in a city with a grid layout of streets, there are many shortest paths between a generic pair of points, as you may break your path into different choices of horizontal and vertical segments without changing its length. この理由から、(cid:96)1メートルは、しばしば「タクシー」メートルと呼ばれる: 道路の格子配置のある都市のように、一般的な一対の点の間には、道が長さを変えずに水平と垂直のセグメントの異なる選択に分解されるため、最も短い道がたくさんある。 0.72
See Figure 2 in the main text for another example of this. この他の例については、メインテキストの図2を参照してください。 0.68
Finsler Metrics on Symmetric Spaces: To define a Finsler metric on a symmetric space M, it suffices to define it on a chosen maximal flat, and evaluate on arbitrary pairs of points with the help of the vector valued distance. 対称空間上のフィンスラー計量: 対称空間 M 上でフィンスラー計量を定義するには、選択された極大平面上でそれを定義するのに十分であり、ベクトル値距離の助けを借りて任意の点対を評価する。 0.75
To induce a well defined Finsler metric M, a norm on this designated flat need only be invariant under the Weyl group W . よく定義されたフィンスラー計量 m を誘導するには、この指定平面上のノルムはワイル群 w の下でのみ不変である。 0.59
Said geometrically, the unit sphere of the norm (cid:107) · (cid:107)F needs to contain it as a subgroup of its symmetries. 幾何学的には、ノルムの単位球面 (cid:107) · (cid:107)F はその対称性の部分群として含む必要がある。 0.72
Given such a norm, the Finsler distance between two points is simply the そのようなノルムが与えられたとき、2つの点の間のフィンスラー距離は単にそのものである。 0.45
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
Finsler norm of their vector valued distance dF (p, q) = (cid:107)vDist(p, q)(cid:107)F . ベクトル値距離 dF (p, q) = (cid:107)vDist(p, q)(cid:107)F のフィンスラーノルム。 0.83
Consequentially once the vector valued distance is known, any selection of Riemannian or Finsler distances may be computed at marginal additional cost. ベクトル値距離が知られていると、リーマン距離やフィンスラー距離の任意の選択は、余分な追加費用で計算される。 0.62
Figure 9. The unit spheres of several Finsler metrics on R3 invariant under the Weyl group of the rank 3 Siegel space. 図9。 階数3のシーゲル空間のワイル群の下でのR3不変量上のフィンスラー計量の単位球面。 0.74
The octahedron induces the (cid:96)1 metric. オクタヘドロンは(cid:96)1計量を誘導する。 0.60
A.5. Local Geometry for Riemannian Optimization A.5。 リーマン最適化のための局所幾何学 0.59
Different Riemannian optimization methods require various input from the local geometry - here we describe a computation of the Riemannian gradient, parallel transport and the exponential map for general irreducible symmetric spaces. 異なるリーマン最適化法は局所幾何学から様々な入力を必要とする - ここでは、一般既約対称空間に対するリーマン勾配、平行輸送、指数写像の計算を記述する。 0.74
Riemannian Gradient Given a function f : M → R, the differential of f is a 1-form which measures how infinitesimal changes in the input affects (infinitesimally) the output. リーマン勾配 f : m → r が与えられたとき、f の微分は入力の無限小変化が(無限に)出力に与える影響を測定する 1-形式である。 0.75
More precisely at each point p ∈ M, df is a linear functional on TpM sending a vector v to the directional derivative dfp(v) of f in direction v. In Euclidean space, this data is conveniently expressed as a vector: the gradient ∇f defined such that (∇f (p)) · v = dfp(v). より正確には、各点 p ∈ m において、df は tpm 上の線型汎関数であり、ベクトル v を f の方向 v の方向微分 dfp(v) に送る。
訳抜け防止モード: より正確には、各点 p ∈ M において、df は TpM 上の線型汎函数であり、ベクトル v を f の方向微分 dfp(v ) に送る。 v. ユークリッド空間において、このデータはベクトルとして便利に表される: 勾配 ^f ( p ) ) · v = dfp(v ) と定義される。
0.86
This extends directly to any Riemannian manifold, where the dot product is replaced with the Riemannian metric. これは任意のリーマン多様体に直接拡張され、点積はリーマン計量に置き換えられる。 0.57
That is, the Riemannian gradient of a function f : M → R is the vector field gradR(f ) on M such that すなわち、函数 f : m → r のリーマン勾配は m 上のベクトル場 gradr(f) であり、それが成り立つ。 0.77
gp(gradR(f ), v) = dfp(v) gp(gradR(f ), v) = dfp(v) 0.79
for every p ∈ M, v ∈ TpM. すべての p ∈ M に対して、v ∈ TpM である。 0.75
Given a particular model (and thus, a particular coordinate system and metric tensor) one may use this implicit definition to give a formula for gradR. 特定のモデル(従って、特定の座標系と計量テンソル)が与えられたら、この暗黙的な定義を使ってgradRの式を与えることができる。 0.75
See Appendix B.6 for an explicit example, deriving the Riemannian gradient for Siegel space from its metric tensor. 明示的な例の付録 b.6 を参照し、その計量テンソルからジーゲル空間のリーマン勾配を導出する。 0.68
Parallel Transport While the lack of curvature in Euclidean space allows all tangent spaces to be identified, in general symmetric spaces the result of transporting a vector from one tangent space to another is a nontrivial, path dependent operation. 平行移動 ユークリッド空間における曲率の欠如によりすべての接空間を同定できるが、一般対称空間においてベクトルをある接空間から別の空間へ移動した結果は非自明な経路依存操作である。 0.74
This parallel transport assigns to a path γ in M from p to q an isomorphism Pγ : TpM → TqM interpreted as taking a この平行輸送は、p から q への経路 γ を p から p への同型 Pγ : TpM → TqM に割り当てる。 0.77
vector v ∈ TpM at p to Pγ(v) ∈ TqM by “moving without turning” along γ. ベクトル v ∈ TpM at p to Pγ(v) ∈ TqM by “moving without turn” along γ. 0.87
The computation of parallel transport along geodesics in a symmetric space is possible directly from the isometry group. 対称空間における測地線に沿った平行輸送の計算は、同型群から直接可能である。 0.81
To fix notation, for each m ∈ M let σm ∈ G be the geodesic reflection fixing m. Let γ be a geodesic in M through p at t = 0. 表記を固定するために、各 m ∈ m に対して σm ∈ g を測地線反射固定 m とし、γ を t = 0 において m から p への測地線とする。 0.68
As t varies, the isometries τt = σγ(t/2)◦ σp, called transvections, form the 1-parameter subgroup of translations along γ. t が変化すると、アイソメトリ τt = σγ(t/2)> σp は変換と呼ばれ、γ に沿った変換の 1-パラメータ部分群を形成する。 0.59
If p, q ∈ M are two points at distance L apart along the the geodesic γ, the transvection τL takes p to q, and its derivative (dτL)p = Pγ : TpM → TqM performs the parallel transport for γ. p, q ∈ M が測地線 γ に沿って離れた距離 L の2点であれば、対流 τL は p から q を取り、その微分 (dτL)p = Pγ : TpM → TqM は γ の平行輸送を行う。 0.87
The Exponential Map & Lie Algebra The exponential map for a Riemannian manifold M is the map exp : T M → M such that if v ∈ Tp(X), exp(v) is the point in M reached by traveling distance (cid:107)v(cid:107) along the geodesic on M through p with initial direction parallel to v. When M is a symmetric space with symmetry group G, this may be computed using the Lie group exponential exp : g → G (the matrix exponential, when G is a matrix Lie group). 指数写像とリー代数 リーマン多様体 m の指数写像は写像 exp : t m → m であり、v ∈ tp(x) であれば exp(v) は m の点であり、m 上の測地線 (cid:107)v(cid:107) が v と平行な初期方向を持つ m から p への移動距離 (cid:107)v(cid:107) によって到達される。
訳抜け防止モード: 指数写像とリー代数 リーマン多様体 m の指数写像は、v ∈ tp(x) であるような写像 exp : t m → m である。 exp(v ) は m から p までの測地線に沿った移動距離 (cid:107)v(cid:107 ) によって到達される m の点であり、v と平行な最初の方向である。 m は対称群 g の対称空間である。 これはリー群指数関数 exp : g → g (行列指数関数) を用いて計算できる。 g が行列リー群 ) であるとき。
0.76
Choose a point p ∈ M and let σp be the geodesic reflection in p. Then σp defines an involution G → G by g (cid:55)→ σp ◦ g ◦ σp (where composition is as isometries of M), and the eigenspaces of the differential of this involtuion give a decomposition g = k ⊕ p into the +1 eigenspace k and the −1 eigenspace p. Here k is the Lie algebra of the stabilizer K = stab(p) < G, and so p identifies with TpM under the differential of the quotient G → G/K ∼= M. Let φ : TpM → p be the inverse of this identification. Choose a point p ∈ M and let σp be the geodesic reflection in p. Then σp defines an involution G → G by g (cid:55)→ σp ◦ g ◦ σp (where composition is as isometries of M), and the eigenspaces of the differential of this involtuion give a decomposition g = k ⊕ p into the +1 eigenspace k and the −1 eigenspace p. Here k is the Lie algebra of the stabilizer K = stab(p) < G, and so p identifies with TpM under the differential of the quotient G → G/K ∼= M. Let φ : TpM → p be the inverse of this identification. 0.99
Then for a vector v ∈ TpM, we may find the point q = expp(v) ∈ M as follows: このとき、ベクトル v ∈ TpM に対して、点 q = expp(v) ∈ M は次のようになる。 0.83
1. Compute φ(v) = A ∈ p. This is the tangent vector v, 1. 計算 φ(v) = A ∈ p. これは接ベクトル v, 0.80
viewed as a matrix in the Lie algebra to G. G へのリー代数の行列と見なされる。 0.56
2. Compute g = exp(A), where exp is the matrix expo- 2. 計算 g = exp(A) ここで exp は行列 Expo である 0.82
nential. 3. Use the action of G on M by isometries to compute ネンシャル 3. 等長写像による M 上の G の作用を用いて計算する 0.64
q = g(p). q = g(p) である。 0.90
B. Explicit Formulas for Siegel Spaces This section gives the calculations mathematics required to implement two models of Siegel space (the bounded domain model and upper half space) as well as a model of its compact dual. B。 ジーゲル空間の明示的な公式 この節は、ジーゲル空間の2つのモデル(有界領域モデルと上半空間)とそのコンパクト双対のモデルを実装するのに必要な計算数学を与える。 0.78
B.1. Linear Algebra Conventions B.1。 線形代数規約 0.62
A few clarifications from linear algebra can be useful: 線形代数からのいくつかの説明は有用である。 0.58
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
1. The inverse of a matrix X−1, the product of two matrices XY , the square X 2 of a square matrix are understood with respect to the matrix operations. 1. 行列 X−1 の逆、二つの行列 XY の積、平方行列の平方 X2 は行列演算に関して理解される。 0.73
Unless all matrices are diagonal these are different than doing the same operation to each entry of the matrix. すべての行列が対角行列でない限り、行列の各エントリに対して同じ操作を行うこととは異なる。
訳抜け防止モード: すべての行列が対角行列でない限り、これらは異なる マトリックスの各エントリに対して同じ操作を行う。
0.75
2. If Z = X + iY is a complex matrix, 2. Z = X + iY が複素行列であれば、 0.82
• Z t denotes the transpose matrix, i.e. • Z t は転置行列、すなわち転置行列を表す。 0.73
(Z t)ij = Zji, • Z = X − iY denotes the complex conjugate • X∗ denotes its transpose conjugate, i.e. (Z t)ij = Zji, • Z = X − iY は複素共役 • X∗ は変換共役、すなわち変換共役を表す。 0.77
X∗ = X t. 3. X∗ = X t。 3. 0.84
A complex square matrix Z is Hermitian if Z∗ = Z. 複素正方行列 Z がエルミート的であれば、Z∗ = Z である。 0.65
In this case its eigenvalues are real and positive. この場合、固有値は実かつ正である。 0.71
It is unitary if Z∗ = Z−1. z∗ = z−1 である。 0.73
In this case its eigenvalues are complex numbers of absolute value 1 (i.e. この場合、固有値は絶対値 1 の複素数である。 0.66
points in the unit circle). 4. 単位円内の点)。 4. 0.68
If X is a real symmetric, or complex Hermitian matrix, X >> 0 means that X is positive definite, equivalently all its eigenvalues are bigger than zero. X が実対称あるいは複素エルミート行列であるなら、X >> 0 は X が正定値であることを意味する。
訳抜け防止モード: X が実対称あるいは複素エルミート行列であれば、 X > > 0 は X が正定値であることを意味する。 ほぼ全ての固有値が 0 より大きいのです
0.79
B.2. Takagi Factorization B2。 高木因子分解 0.63
Given a complex symmetric matrix A, the Takagi factorization is an algorithm that computes a real diagonal matrix D and a complex unitary matrix K such that 複素対称行列 A が与えられたとき、高木分解は実対角行列 D と複素ユニタリ行列 K を計算するアルゴリズムである。 0.71
A = KDK∗. This will be useful to work with the bounded domain model. A = KDK∗。 これは、有界なドメインモデルを扱うのに役立ちます。 0.71
It is done in a few steps それはいくつかのステップで行われます 0.69
1. Find Z1 unitary, D real diagonal such that 1. Z1ユニタリ、D の実対角線を求める。 0.72
A∗A = Z∗ 1 D2Z1 A∗A = Z∗ 1D2Z1 0.59
2. Find Z2 orthogonal, B complex diagonal such that 2. z2直交、b複素対角形を見つける 0.80
Z 1AZ∗ 1 = Z2BZ t 2 Z 1AZ∗ 1 = Z2BZ t 2 0.79
This is possible since the real and imaginary parts of Z 1AZ∗ 1 are symmetric and commute, and are therefore diagonalizable in the same orthogonal basis. これは Z 1AZ∗ 1 の実部と虚部が対称で可換であるため可能であり、したがって同じ直交基底で対角化可能である。 0.79
3. Set Z3 be the diagonal matrix with entries 3. z3 をエントリを持つ対角行列とする 0.78
(cid:32)(cid:115) (cid:32)(cid:115) 0.75
(cid:33)−1 (cid:33)−1 0.74
bi|bi| (Z3)ii = bi|bi| (Z3)ii= 0.72
where bi = (B)ii bi = (b)ii の場合 0.85
4. Set K = Z∗ 4. K = Z∗ とする。 0.72
1 Z2Z3, D as in Step 1. 1 Z2Z3, D。 0.64
It then holds A = KDK∗. その後保持する。 A = KDK∗。 0.71
B.3. Siegel Space and its Models B3。 シーゲル空間とそのモデル 0.69
We consider two models for the symmetric space, the bounded domain 対称空間の2つのモデル、有界領域を考える。 0.74
Bn := {Z ∈ Sym(n, C)| Id − Z∗Z >> 0} Bn := {Z ∈ Sym(n, C)| Id − Z∗Z >> 0} 0.93
and the upper half space Sn := {X + iY ∈ Sym(n, C)| Y >> 0}. 上半分の空間は Sn := {X + iY ∈ Sym(n, C)| Y >> 0} である。 0.77
An explicit isomorphism between the two domains is given by the Cayley transform c : Bn → 2つの領域の間の明示的な同型はケイリー変換 c : bn → によって与えられる。 0.64
Sn Z (cid:55)→ i(Z + Id)(Z − Id)−1 Sn Z (cid:55)→ i(Z + Id)(Z − Id)−1 0.92
whose inverse c−1 = t is given by 逆 c−1 = t が与えられる 0.85
t : Sn → Bn t : Sn → Bn 0.85
X (cid:55)→ (X − iId)(X + iId)−1 X (cid:55)→ (X − iId)(X + iId)−1 1.00
trix(cid:0) 0 trix(cid:0) 0 0.88
Idn −Idn 0 Idn − Idn 0 0.87
When needed, a choice of basepoint for these models is iId ∈ Sn for upper half space and the zero matrix 0 ∈ Bn for the bounded domain. 必要であれば、これらのモデルに対する基底点の選択は、上半空間の iId ∈ Sn と有界領域の 0 ∈ Bn である。 0.75
A convenient choice of maximal flats containing these basepoints are the subspaces {iD | D = diag(di), di > 0} ⊂ Sn and {D = diag(di) | di ∈ (−1, 1)} ⊂ Bn. これらの基底点を含む極大平面の便利な選択は、部分空間 {iD | D = diag(di), di > 0} の Sn と {D = diag(di) | di ∈ (−1, 1)} の Bn である。 0.83
The group of symmetries of the Siegel space Sn is Sp(2n, R), the subgroup of SL(2n, R) preserving a symplectic form: a non-degenerate antisymmetric bilinear form on R2n. シーゲル空間 Sn の対称性の群は Sp(2n, R) であり、SL(2n, R) の部分群はシンプレクティック形式を保存する: R2n 上の非退化反対称双線型形式である。 0.79
In this text we will choose the symplectic form represented, with respect to the standard basis, by the ma- このテキストでは、標準基底に関して、ma-によって表現されたシンプレクティック形式を選択します。 0.66
(cid:1) so that the symplectic group is given by the (cid:19)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12) AtD − C tB = Id  (cid:18)A B (cid:18)A B (cid:1) シンプレクティック群は (cid:19)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12) AtD − C tB = Id (cid:18)A B (cid:18)A B 0.75
where A, B, C, D are real n × n matrices. A, B, C, D は実 n × n 行列である。 0.72
The symplectic group Sp(2n, R) acts on Sn by noncommutative fractional linear transformations シンプレクティック群 Sp(2n, R) は非可換分数線型変換により Sn に作用する 0.83
matrices that have the block expression ブロック表現を持つ行列 0.56
AtC = C tA BtD = DtB AtC = C tA BtD = DtB 0.85
· Z = (AZ + B)(CZ + D)−1. ·Z = (AZ + B)(CZ + D)−1。 0.85
 (cid:19)  (cid:19) 0.82
C D C D The action of Sp(2n, R) on Bn can be obtained through the Cayley transform. C D C D Bn 上の Sp(2n, R) の作用はケイリー変換によって得られる。 0.80
B.4. Computing the Vector-Valued Distance B.4。 ベクトル値距離の計算 0.73
The Riemannian metric, as well as any desired Finsler distance, are computable directly from the vector-valued distance as explained in Appendix A.3. リーマン計量と任意の所望のフィンスラー距離は、Appendix A.3で説明されているようなベクトル値距離から直接計算可能である。 0.71
Following those steps, we give an explicit implementation for the upper half space これらのステップに従って、上半分の空間を明示的に実装します 0.64
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
model below, and subsequently use the Cayley transform to extend this to the bounded domain model. 下記のモデルでcayley変換を使用して、これを有界なドメインモデルに拡張します。 0.63
Given as input two points Z1, Z2 ∈ Sn we perform the following computations: 1) Move Z1 to the basepoint: Compute the image of Z2 under the transformation taking Z1 to iI, defining −1 ∈ Sn 入力 2 つの点 z1, z2 ∈ sn が与えられると、次の計算を行う: 1) z1 を基底点に移す: z1 から ii への変換の下で z2 の像を計算し、−1 ∈ sn を定義する。
訳抜け防止モード: 入力 2 つの点 Z1, Z2 ∈ Sn が与えられたとき、以下の計算を実行する。 Z1 から iI への変換の下で Z2 の像を計算し、−1 ∈ Sn を定義する。
0.85
(cid:112)(cid:61)Z1 (cid:112)(cid:61)Z1 0.72
(cid:112)(cid:61)Z1 (cid:112)(cid:61)Z1 0.72
(Z2 − (cid:60)Z1) (Z2 − (cid:60)Z1) 0.81
Z3 := −1 2) Move Z2 into the chosen flat: Define Z3 := −1 2) Z2 を選択フラットに移動します。 0.85
W = t(Z3) ∈ B, and use the Takagi factorization to write W = t(Z3) ∈ B で、高木分解を使って書く 0.70
W = KDK∗ for some real diagonal matrix D with eigenvalues between 0 and 1, and some unitary matrix K. Note: to make computations easier, we are leveraging the geometry of both models here, so in fact i(I + D)(I − D)−1 is the matrix lying in the standard flat containing iI. W = KDK∗ 0 と 1 の間の固有値を持つ実対角行列 d とユニタリ行列 k に対して注意: 計算をより容易にするために、我々は両モデルの幾何学をここで活用しているので、実際、i(i + d)(i − d)−1 は標準平面 ii に含まれる行列である。 0.82
3) Identify the flat with Rn: Define the vector v = (vi) ∈ Rn with 3) 平面を Rn で同定する: ベクトル v = (vi) ∈ Rn を Rn で定義する。 0.87
vi = log 1 + di 1 − di vi = log 1 + di 1 − di 0.85
, for di the ith diagonal entry of the matrix D from the last step. , 最後のステップから行列 D の i 番目の対角入力を di にする。 0.81
4) Return the Vector Valued Distance: Sort the absolute values of the entries of v to be in nonincreasing order, and set vDist(Z1, Z2) equal to the resulting list. 4) ベクトル値距離を返します: v のエントリの絶対値を非開始順序でソートし、vdist(z1, z2) を結果のリストに等しいようにします。 0.80
vDist = (|vi1|,|vi2|, . vDist = (|vi1|,|vi2|, 。 0.83
. . ,|vin|) . . ・|vin|) 0.81
|vi1| ≥ |vi2| ≥ ··· ≥ |vin| |vi1| ≥ |vi2| ≥ ··· ≥ |vin| 0.52
Bounded domain: In this case, given W1, W2 ∈ B we consider the pair Z1, Z2 ∈ Sn obtained applying the Cayley transform Zi = t(Wi). 境界領域: この場合、W1, W2 ∈ B が与えられたとき、ケイリー変換 Zi = t(Wi) を適用したペア Z1, Z2 ∈ Sn を考える。 0.79
Then we can apply the previous algorithm, indeed そして 前のアルゴリズムを実際に適用できます 0.77
vDist(W1, W2) = vDist(Z1, Z2). vDist(W1, W2) = vDist(Z1, Z2) 0.91
B.5. Riemannian & Finsler Distances B.5。 Riemannian & Finsler Distances 0.76
The Riemannian distance between two points X, Y in the Siegel space (either the upper half space or bounded domain model) is induced by the Euclidean metric on its maximal flats. シーゲル空間における2つの点 x, y の間のリーマン距離(上半空間または有界領域モデル)は、その極大平面上のユークリッド計量によって誘導される。 0.78
This is calculable directly from the vector valued distance vDist(X, Y ) = (v1, v2, . これはベクトル値距離 vDist(X, Y ) = (v1, v2, ) から直接計算できる。 0.88
. . , vn) as . . , vn) である。 0.80
(cid:118)(cid:117)(c id:117)(cid:116) n(cid:88) (cid:118)(cid:117)(c id:117)(cid:116)n(ci d:88) 0.74
i=1 dR(X, Y ) = i=1 dR(X, Y ) = 0.72
v2 i . The Weyl group for the rank n Siegel space is the symmetry group of the n cube. v2i。 ランク n のシーゲル空間に対するワイル群は n つの立方体の対称性群である。 0.80
Thus, any Finsler metric on Rn whose unit sphere has these symmetries has these symmetries induces a Finsler metric on Siegel space. したがって、単位球面がこれらの対称性を持つRn上のフィンスラー計量は、ジーゲル空間上のフィンスラー計量を誘導する。 0.64
The class of such finsler metrics includes many well-known examples such as the (cid:96)p metrics そのようなフィンスラー測度のクラスは (cid:96)p 測度のようなよく知られた例を含む。 0.62
(cid:107)(v1, . (cid:107)(v1, 。 0.75
. . , vn)(cid:107)(cid:96) p = . . , vn)(cid:107)(cid:96) p = 0.86
|vi|p , (cid:33) 1 |vi|p , (cid:33)1 0.70
p (cid:32)(cid:88) p (cid:32)(cid:88) 0.80
i which is one of the reasons the Siegel space is an attractive avenue for experimentation. 私は これがシーゲル空間が実験の魅力的な道である理由の1つである。 0.61
Of particular interest are the (cid:96)1 and (cid:96)∞ Finsler metrics. 特に興味深いのは (cid:96)1 と (cid:96)∞ Finsler である。 0.68
The distance functions induced on the Siegel space by them are given below シーゲル空間上で誘導される距離関数を以下に示す。 0.71
n(cid:88) dF1(X, Y ) = n(cid:88) dF1(X, Y ) = 0.90
vi dF∞ (X, Y ) = v1. vi dF∞ (X, Y ) = v1。 0.89
i=1 Where X, Y are points in Siegel space (again, either in the upper half space or bounded domain models), and the vi are the component of the vector valued distance vDist(X, Y ) = (v1, v2, . i=1 X, Y がジーゲル空間(上半空間または有界領域モデル)の点であり、vi がベクトル値距離 vDist(X, Y ) = (v1, v2, ) の成分である。
訳抜け防止モード: i=1 ここで x と y は(再び)シーゲル空間の点である 上半空間または有界領域モデルで ) vi はベクトル値距離 vdist(x,x) の成分である。 y ) = ( v1 , v2 , .
0.65
. . , vn). There are explicit bounds between the distances, for example . . 、vn)。 例えば、距離の間には明確な境界がある。 0.73
Furthermore, we have 1√ n さらに私たちは 1~n 0.62
dF1(X, Y ) ≤ dR(X, Y ) ≤ dF1(X, Y ) dF1(X, Y ) ≤ dR(X, Y ) ≤ dF1(X, Y ) 0.93
dF1(X, Y ) = log det((cid:112)R(X, Y ) + Id)− log det(Id −(cid:112)R(X, Y )) dF1(X, Y ) = log det((cid:112)R(X, Y ) + Id)− log det(Id −(cid:112)R(X, Y )) 0.96
(4) (5) which, in turn, allows to estimate the Riemannian distance using (4). (4) (5) これによりリーマン距離を (4) を用いて推定することができる。 0.80
B.6. Riemannian Gradient We consider on Sym(n, C) the Euclidean metric given by B.6。 sym(n, c) について考えるリーマン勾配は、与えられたユークリッド計量である 0.65
(cid:107)V (cid:107)2 (cid:107)V (cid:107)2 0.81
E = tr(V V ), E = tr(VV) である。 0.80
here tr denotes the trace, and, as above, V V denotes the matrix product of the matrix V and its conjugate. ここで tr はトレースを表し、上述の v v は行列 v の行列積とその共役を表す。
訳抜け防止モード: ここで trは痕跡を表します 上述のように、V V は行列 V とその共役の行列積を表す。
0.79
Siegel upperhalf space: The Riemannian metric at a point Z ∈ Sn, where Z = X + iY is given by (Siegel, 1943) Siegel upperhalf space: ある点 Z ∈ Sn におけるリーマン計量、そこで Z = X + iY が与えられる(Siegel, 1943) 0.83
(cid:107)V (cid:107)2 (cid:107)V (cid:107)2 0.81
R = tr(Y −1V Y −1V ). R = tr(Y −1V Y −1V )。 0.78
As a result we deduce that grad(f (Z)) = Y · gradE(f (Z)) · Y 結果として私たちは grad(f (Z)) = Y · gradE(f (Z)) · Y 0.82
Bounded domain: In this case we have 境界ドメイン: この場合は、 0.45
grad(f (Z)) = A · gradE(f (Z)) · A grad(f (Z)) = A · gradE(f (Z)) · A 0.85
where A = Id − ZZ a = id − zz の場合 0.71
英語(論文から抽出)日本語訳スコア
B.7. Embedding Initialization B.7。 埋め込み初期化 0.68
3. The projection is given by Symmetric Spaces for Graph Embeddings 3. 投影は グラフ埋め込みのための対称空間 0.63
Different embeddings methods initialize the points close to a fixed basepoint. 異なる埋め込みメソッドは固定基点に近い点を初期化する。 0.82
In this manner, no a priori bias is introduced in the model, since all the embeddings start with similar values. この方法では、すべての埋め込みが同様の値から始まっているため、モデルに優先順位バイアスは導入されない。 0.68
We use the basepoints specified previously: iId for Siegel upper half space and 0 for the bounded domain model. 前述した基底点:シーゲル上半空間 iId と有界領域モデル 0 を用いる。
訳抜け防止モード: 前述した基底点を用いる : シーゲル上半空間に対するiId および、有界なドメインモデルに対する 0 である。
0.71
In order to produce a random point we generate a random symmetric matrix with small entries and add it to our basepoint. ランダムな点を生成するために、小さなエントリを持つランダム対称行列を生成し、ベースポイントに追加します。 0.73
As soon as all entries of the perturbation are smaller than 1/n the resulting matrix necessarily belongs to the model. 摂動の全ての成分が 1/n より小さいとすぐに、結果の行列は必ずしもモデルに属する。 0.68
In our experiments, we generate random symmetric matrices with entries taken from a uniform distribution U(−0.001, 0.001). 実験では,一様分布 U(−0.001, 0.001) から抽出したランダム対称行列を生成する。 0.83
B.8. Projecting Back to the Models B.8。 モデルに投影して 0.62
The goal of this section is to explain two algorithms that, given  and a point Z ∈ Sym(n, C), return a point ZS  (resp. この節の目標は、2つのアルゴリズムを説明することであり、ある点 z ∈ sym(n, c) が与えられたとき、点 zs が返される(resp)。 0.65
ZB  ), a point close to the original point lying in the -interior of the model. zb(zb)は、元の点に近い点である。 0.34
This is the equivalent of the projection applied in Nickel & Kiela (2017) to constrain the embeddings to remain within the Poincar´e ball, but adapted to the structure of the model. これはNickel & Kiela (2017) で適用された射影と等価であり、埋め込みはポアンカー ́e 球内に留まるが、モデルの構造に適応する。 0.67
Observe that the projections are not conjugated through the Cayley transform. 射影はケイリー変換を通じて共役ではないことを観察する。 0.50
Siegel upperhalf space: In the case of the Siegel upperhalf space Sn given a point Z = X + iY ∈ Sym(n, C) ジーゲル上半空間:シーゲル上半空間 Sn の場合、点 Z = X + iY ∈ Sym(n, C) を与える。 0.67
1. Find a real n-dimensional diagonal matrix D and an 1. 実 n-次元対角行列 D と an を求める 0.83
orthogonal matrix K such that そのような直交行列K 0.68
Y = K tDK 2. Y = K tDK 2. 0.85
Compute the diagonal matrix D with the property that 対角行列 D = をその性質で計算する 0.64
(cid:40)  := KDB ZB (cid:40) s := KDB ZB 0.78
 K∗ B.9. Crossratio and Distance K∗ B.9。 交差比と距離 0.66
Given two points X, Y in Siegel space, there is an alternative means of calculating the vector valued distance (and thus any Riemannian or Finsler distance one wishes) via an invariant known as the cross ratio. ジーゲル空間に2つの点 x, y が与えられると、ベクトル値距離(従って任意のリーマン距離やフィンスラー距離)を交叉比として知られる不変量を通じて計算する別の方法が存在する。 0.68
Siegel upperhalf space: Given two points X, Y ∈ Sn their crossratio is given by the complex n × n-matrix RS (X, Y ) = (X − Y )(X − Y )−1(X − Y )(X − Y )−1. シーゲル上半函数空間: 2つの点 X, Y ∈ Sn が与えられたとき、それらの交叉比は複素 n × n-行列 RS (X, Y ) = (X − Y )(X − Y )−1(X − Y )(X − Y )−1 によって与えられる。 0.81
It was established by Siegel (Siegel, 1943) that if r1, . シーゲル (siegel, 1943) により、r1 が成立する。 0.57
. . , rn denote the eigenvalues of R (which are necessarily real greater than or equal to 1) and we denote by vi the numbers . . , rn は R の固有値を表す(これは必ず 1 よりも大きいか等しい)。
訳抜け防止モード: . . ,rn は R の固有値を表す。 必然的に 1 より大きいか等しいか ) 数字を Vi で示します
0.78
then the vi are the components of the vector-valued distandce vDist(X, Y ). このとき、vi はベクトル値ディスタンス vDist(X, Y) の成分である。 0.72
Thus, the Riemannian distance is したがって、リーマン距離は 0.55
vi = log √ 1 − √ vi = log √ 1 − √ 0.85
1 + ri ri (cid:118)(cid:117)(c id:117)(cid:116) n(cid:88) 1 + リリリ (cid:118)(cid:117)(c id:117)(cid:116)n(ci d:88) 0.67
i=1 dR(X, Y ) = i=1 dR(X, Y ) = 0.72
v2 i . The Finsler distances dF1 and dF∞ are likewise given by the same formulas as previously. v2i。 フィンスラー距離 dF1 と dF∞ も前と同じ式で与えられる。 0.76
In general it is computationally difficult to compute the eigenvalues, or the squareroot, of a general complex matrix. 一般に、一般複素行列の固有値、あるいは平方根を計算するのは計算的に困難である。 0.70
However, we can use the determinant detR of the matrix R(X, Y ) to give a lower bound on the distance: しかし、行列 R(X, Y) の行列式 detR を使って距離を下限にすることができる。 0.63
(D)ii = Dii  (d)ii = ジイ! 0.55
if Dii >  otherwise Dii > ... でなければ 0.53
log √ 1 − √ ログ √ 1 − √ 0.78
1 + detR detR 1 + detR detR 0.85
≤ dR(X, Y ). ≤ dR(X, Y)。 0.77
3. The projection is given by ZS  := X + iK tDK 3. 投影は ZS > := X + iK tD>K 0.67
Bounded Domain: In the case of the bounded domain B given a point Z = X + iY ∈ Sym(n, C) 有界領域: 有界領域 B の場合、点 Z = X + iY ∈ Sym(n, C) が与えられる。 0.59
1. Use the Takagi factorization to find a real ndimensional diagonal matrix D and an unitary matrix K such that 1. 高木の使用 実 n 次元対角行列 d とユニタリ行列 k を見つけるための因子分解 0.69
Y = KDK∗ 2. Y = KDK∗ 2。 0.96
Compute the diagonal matrix DB 対角行列 DB を計算する 0.77
that (cid:40) あれ (cid:40) 0.73
(DB  )ii = (DB) i (複数形 iis) 0.65
Dii 1 −  if Dii < 1 −  otherwise Dii 1 − ? dii < 1 − ] でなければ 0.72
 with the property Bounded domain: The same study applies to pairs of points X, Y ∈ B, but their crossratio should be replaced by the expression は、その財産を持つ 境界領域: 同じ研究が点 X, Y ∈ B の対に適用されるが、それらの交叉比は式に置き換えるべきである。 0.54
RB(X, Y ) = (X − Y )(X − Y −1)−1 (X−1 − Y −1)(X−1 − Y )−1 RB(X, Y ) = (X − Y )(X − Y −1)−1 (X−1 − Y −1)(X−1 − Y )−1 0.94
(6) B.10. The Compact Dual of the Siegel Space (6) B10。 シーゲル空間のコンパクトな双対 0.67
The compact dual to the (non-positively) curved Siegel space is a compact non-negatively curved symmetric space; in rank 1 this is just the 2-sphere. 非正でない)曲線ジーゲル空間のコンパクト双対はコンパクトな非負曲線対称空間であり、ランク 1 においてこれは単に 2-球面である。 0.77
Many computations in the compact dual are analogous to those for the Siegel spaces, and are presented below. コンパクト双対の多くの計算はシーゲル空間の計算と類似しており、以下に示す。 0.58
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
MODEL Abstractly, the compact dual is the space of complex structures on quaternionic n-dimensional space compatible with a fixed inner product. モデル 抽象的には、コンパクト双対は四元数 n-次元空間上の複素構造の空間であり、固定内積と整合である。 0.67
It is convenient to work with a coordinate chart, or affine path covering all but a measure zero subset of this space. この空間の測度零部分集合以外の全てをカバーする座標チャートやアフィンパスを扱うのは便利である。 0.68
We denote this patch by Dn, which consists of all n × n complex symmetric matrices: すべての n × n 個の複素対称行列からなる Dn によるこのパッチを示す。 0.76
Dn = Sym(n; C) Dn = Sym(n; C) 0.85
With this choice of model, tangent vectors to Dn are also represented by complex symmetric matrices. このモデルの選択により、Dn への接ベクトルは複素対称行列で表される。 0.76
More precisely, for each W ∈ Dn we may identify the tangent space TWDn with Sym(n, C). より正確には、各 W ∈ Dn に対して、接空間 TWDn を Sym(n, C) と同一視することができる。 0.66
Basepoint: The basepoint of Dn is the zero matrix 0. basepoint: dn のベースポイントは 0 行列 0 である。 0.76
Maximal Flat: A useful choice of maximal flat is the subspace of real diagonal matrices. 極大平面:極大平面の有用な選択は、実対角行列の部分空間である。 0.69
Projection: The model Dn is a linear subspace of the space of n × n complex matrices. 射影: モデル dn は n × n 複素行列の空間の線型部分空間である。 0.72
Orthogonal projection onto this subspace is given by symmetrization, この部分空間への直交射影は対称性によって与えられる。 0.52
W (cid:55)→ 1 2 W (cid:55)→ 1 2 0.94
(W + W t). (W + W t)。 0.76
Isometries: The symmetries of the compact dual are given by the compact symplectic group Sp(n). Isometries: コンパクト双対の対称性はコンパクトシンプレクティック群 Sp(n) によって与えられる。 0.72
With respect to the model Dn, we may realize this as the intersection of the complex symplectic group Sp(2n, C) and the unitary group モデル Dn に関して、これを複素シンプレクティック群 Sp(2n, C) とユニタリ群の交叉として認識することができる。 0.70
where A, B, C, D are complex n×n matrices. A, B, C, D は複素 n×n 行列である。 0.75
The first four conditions are analogs of those defining Sp(2n; R), and the final three come from the defining property that a unitary matrix M satisfies M∗M = Id. 最初の4つの条件は Sp(2n; R) を定義するものと類似しており、最後の3つの条件はユニタリ行列 M が M∗M = Id を満たすという定義的性質から来ている。 0.67
This group acts on Dn by non-commutative fractional linear transformations この群は非可換分数線型変換によりDnに作用する 0.71
· W = (AW + B)(CW + D)−1. ·W = (AW + B)(CW + D)−1。 0.84
(cid:18)A B (cid:19) (出典:18)B (cid:19) 0.83
C D U (2n, C) C D U (2n, C)! 0.83
(cid:18)A B (cid:19) (出典:18)B (cid:19) 0.83
C D AtD − C tB = Id AtC = C tA BtD = DtB A∗A + C∗C = Id B∗B + D∗D = Id A∗B + C∗D = 0 C D AtD − C tB = Id AtC = C tA BtD = DtB A∗A + C∗C = Id B∗B + D∗D = Id A∗B + C∗D = 0 0.84
(cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12) 0.71
  0.85
The gradient of a function on the compact dual can be written in terms of its Euclidean gradient, via a formula very similar to that for the Bounded Domain model of the Siegel space. コンパクト双対上の函数の勾配は、そのユークリッド勾配(英語版)(euclidean gradient)の項で書くことができ、シーゲル空間の有界領域モデル(英語版)(bounded domain model of the siegel space)のそれと非常によく似ている。
訳抜け防止モード: コンパクト双対上の函数の勾配はユークリッド勾配(英語版)の言葉で書くことができる。 シーゲル空間の有界領域モデルと非常によく似た公式によって導かれる。
0.66
In this case we have grad(f (W )) = A · gradE(f (W )) · A 今回のケースでは grad(f (W )) = A · gradE(f (W )) · A 0.75
where (the only difference from the bounded domain version being that the − sign in the definition of A has been replaced with a +). ここでは(有界な領域のバージョンと唯一の違いは、A の定義の − 符号が a + に置き換えられたことである)。 0.73
VECTOR VALUED DISTANCE We again give an explicit implementation of the abstract procedure described in Appendix A.3, to calculate the vector valued distance associated to an arbitrary pair W1, W2 ∈ Dn as follows: Move W 1 to the basepoint: ベクター値距離 また、付録 a.3 に記述された抽象手順の明示的な実装を与え、任意の対 w1, w2 ∈ dn に関連するベクトル値距離を次のように計算する。 0.56
1. Use the Takagi factorization to write 1. 高木因子化を使って書く 0.75
W1 = U P U∗ W1 = U P U∗ 0.88
for a unitary matrix U and real diagonal matrix P . ユニタリ行列 U と実対角行列 P に対して。 0.72
2. From P , we build the diagonal matrix A = (Id + P 2)−1/2. 2. p から対角行列 a = (id + p 2)−1/2 を構築する。 0.79
That is, the diagonal entries of A are ai = 1√ すなわち、A の対角成分は ai = 1 である。 0.71
for pi the diagonal entries of P . pi に対して、p の対角成分。 0.61
1+p2 i 3. From A, U we build the following elements M, R ∈ 1+p2 i 3. A, U から次の元 M, R ∈ を作る。 0.73
Sp(n) of the compact symplectic group: コンパクトシンプレクティック群のSp(n) 0.46
(cid:18) A −AP (出典:18)A-AP 0.70
(cid:19) AP (cid:19) AP 0.82
A M = (cid:18)U t A M = (cid:18)U t 0.86
(cid:19) R = (cid:19) R = 0.82
0 0 U∗ We now use the transformation M · R to move the pair (W1, W2) to a pair (0, Z). 0 U∗ 現在、変換 M · R を用いてペア (W1, W2) をペア (0, Z) に移動する。 0.78
Because W1 ends at the basepoint by construction, we focus on W2. W1 は構築のベースポイントで終わるので、W2 にフォーカスする。 0.65
4. Compute X = R.W2, that is X = U tW2U. 4. 計算 X = R.W2, すなわち X = U tW2U である。 0.79
5. Compute Z = M.X, that is Z = (AX−AP )(AP X− A)−1. 5. Z = M.X, すなわち、Z = (AX−AP )(AP X−A)−1 である。 0.82
Alternatively, this simplifies to the conjugation Z = AY A−1 by A of the matrix Y = (X−P )(P X− Id)−1 あるいは、行列 Y = (X−P )(P X−Id)−1 の A による共役 Z = AY A−1 に単純化する。 0.82
Move Z into the chosen flat: Use the Takagi factorization to write Z を選択フラットに移動する: Takagi 分解を使って書く 0.78
Z = KDK∗ Riemannian Metric & Gradient: The Riemannian metric at a point W ∈ Dn is given by Z = KDK∗ リーマン計量と勾配:ある点 w ∈ dn におけるリーマン計量は与えられた 0.79
for a unitary matrix K and real diagonal matrix D. Identify the Flat with Rn: Produce from D the n-vector ユニタリ行列 K と実対角行列 D について。 フラットを Rn で同定する: D から n-ベクトルを生成する 0.71
(cid:104)U, V (cid:105)W = (Id + W W )−1U (Id + W W )−1V , (cid:104)U, V (cid:105)W = (Id + W W )−1U (Id + W W )−1V , 0.91
v = (arctan(d1), . v = (arctan(d1) である。 0.90
. . arctan(dn)) . . arctan (複数形 arctans) 0.83
where U, V are tangent vectors at W . ここで U, V は W において接ベクトルである。 0.63
Where (d1, . . 場所(d1, )。 . 0.77
. dn) are the diagonal entries of D. . dn) は D の対角成分である。 0.81
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
Return the Vector Valued Distance: Order the the entries of v in nondecreasing order. ベクトル値距離を返します: v のエントリを非減算順序で注文します。 0.82
This is the vector valued distance. これがベクトル値距離である。 0.84
vDist = (vi1 , vi2 , . vDist = (vi1 , vi2 , )。 0.81
. . , vin ) vi1 ≥ vi2 ≥ ··· ≥ vin ≥ 0 . . , vin ) vi1 ≥ vi2 ≥ ··· ≥ vin ≥ 0 0.87
RIEMANNIAN AND FINSLER DISTANCES: ライマニアンとフィンスラー距離: 0.47
The Riemannian distance between two points X, Y in the compact dual is calculable directly from the vector valued distance vDist(X, Y ) = (v1, v2, . コンパクト双対の二つの点 X, Y の間のリーマン距離はベクトル値距離 vDist(X, Y) = (v1, v2, ) から直接計算できる。 0.87
. . , vn) as . . , vn) である。 0.80
(cid:118)(cid:117)(c id:117)(cid:116) n(cid:88) (cid:118)(cid:117)(c id:117)(cid:116)n(ci d:88) 0.74
i=1 dR(X, Y ) = i=1 dR(X, Y ) = 0.72
v2 i . Figure 10. A 1-parameter family of spaces interpolating between the Siegel space and its compact dual, here illustrated in rank 1 (H2 transitioning S2 through the Euclidean plane with k = 0). v2i。 図10。 シーゲル空間とそのコンパクト双対の間に補間される空間の1-パラメータ族は、階数 1 で示される(h2 は k = 0 のユークリッド平面を s2 に遷移する)。 0.78
n(cid:88) The Weyl group for the compact dual is the same as for Seigel space, the symmetries of the n-cube. n(cid:88) コンパクト双対に対するワイル群は、n-キューブの対称性であるセイゲル空間と同じである。 0.77
Thus the same collection of Finsler metrics induce distance functions on the compact dual, and their formulas in terms of the vector valued distance are unchanged. したがって、フィンスラー計量の同じ集合はコンパクト双対上の距離関数を誘導し、それらのベクトル値距離に関する公式は変化しない。 0.78
dF1(X, Y ) = dF1(X, Y ) = 0.96
vi dF∞ (X, Y ) = v1. vi dF∞ (X, Y ) = v1。 0.89
i=1 B.11. Interpolation between Siegel Space and its i=1 B.11。 シーゲル空間とそれとの補間 0.61
Compact Dual The Siegel space and its compact dual are part of a 1parameter family of spaces indexed by a real parameter k ∈ R. When n = 1 the symmetric spaces are twodimensional, and this k is interpreted as their (constant) curvature. コンパクトデュアル シーゲル空間とそのコンパクト双対は、実パラメータ k ∈ R で指数付けられた空間の1パラメータ群の一部である。n = 1 のとき、対称空間は2次元であり、この k はそれらの(定数)曲率として解釈される。 0.75
That is, this family represents an interpolation between the hyperbolic plane (k = −1) and the sphere (k = 1) through Euclidean space (k = 0) as schematically represented in Figure 10. すなわち、この族は図10で図式的に表されるようなユークリッド空間 (k = 0) を通して双曲平面 (k = −1) と球面 (k = 1) の間の補間を表す。 0.86
Below we describe the generalization of this to all n, by giving the model, symmetries, and distance functions in terms of the parameter k ∈ R. Model: Our models are most similar to the Bounded domain model of Siegel space, and so we use notation to match. 以下では、パラメータ k ∈ r を用いて、モデル、対称性、距離関数を与えることにより、すべての n に対するこの一般化を記述する。
訳抜け防止モード: 以下では、これをすべての n への一般化について述べる。 パラメータ k ∈ r の観点でモデル、対称性、距離関数を与える :我々のモデルはシーゲル空間の有界領域モデルと最もよく似ている。 表記法を使って一致させます
0.82
For each k ∈ R we define the subset Bk n of Sym(n, C) as follows: Bk n = 各 k ∈ R に対して、Sym(n, C) の部分集合 Bk n を次のように定義する。 0.72
(cid:26){W | Id + kW ∗W >> 0} k < 0 (cid:26){W | Id + kW ∗W >> 0} k < 0 0.99
Sym(n, C) k ≥ 0 Sym(n, C) k ≥ 0 0.85
The basepoint for Bk n is the zero matrix 0 for all k. Projection back to the model is analogous to what is done for the bounded domain when k < 0, and is just symmetrization for k ≥ 0. bk n の基底点はすべての k に対する零行列 0 であり、モデルへの射影は k < 0 のとき有界領域に対してなされるものと類似しており、k ≥ 0 に対するただの対称性である。 0.78
Isometries: Denote by Gk the isometry group of Bk n. A uniform description of Gk can be given in close analogy to the description of the symmetries of the compact dual. 同型 (isometries): gk で bk n の等長群を表す: gk の一様記述はコンパクト双対の対称性の記述と密接に類似している。 0.70
For each k ∈ R, Gk = Sp(2n, C) ∩ U k where U k is a generalization of the usual unitary group 各 k ∈ R に対して、Gk = Sp(2n, C) > U k は U k が通常のユニタリ群の一般化である。 0.83
U k =(cid:8)M | M∗(cid:0) kId 0 Uk =(cid:8)M | M∗(cid:0) kId 0 0.92
(cid:1)(cid:9) (cid:1)(cid:9) 0.75
0 Id (cid:1) M =(cid:0) kId 0 W = tr(cid:0)A−1U A−1V(cid:1) 0Id (cid:1) M =(cid:0) kId 0 W = tr(cid:0)A−1U A−1V(cid:1) 0.69
0 Id (cid:104)U, V (cid:105)k 0Id (cid:104)U,V(cid:105 )k 0.75
Riemannian Geometry: The Riemannian metric at a point W ∈ Bk リーマン幾何学:ある点 w ∈ bk におけるリーマン計量 0.69
n is given by the formula n は式によって与えられる 0.80
Where A = Id + kW W . A = Id + kW W である。 0.84
As before, this allows us to compute the Riemannian Gradient in terms of the Euclidean gradient on Bk n: このようにして、bk n: 上のユークリッド勾配の観点からリーマン勾配を計算することができる。
訳抜け防止モード: 前述の通り、これは許される。 We to compute the Riemannian Gradient in terms of the Euclidean gradient on Bk n:
0.92
grad(f (W )) = A · gradE(f (W )) · A grad(f (W )) = A · gradE(f (W )) · A 0.85
From the Riemannian metric we may explicitly compute the distance function from the basepoint 0 to a real diagonal matrix D ∈ Bk n: リーマン計量から、基底点 0 から実対角行列 D ∈ Bk n への距離関数を明示的に計算することができる。 0.77
distk(0, D) = distk(0, D) = 0.85
(cid:115)(cid:80)  (cid:114)(cid:80) (cid:115)(cid:80)→(cid:114)(cid:80) 0.73
i (cid:16) √ 私は (cid:16)- 0.70
arctanh (cid:112)(cid:80) アルクタン (cid:112)(cid:80) 0.58
√ di |k| i d2 i arctan(di √ k k | k| i d2 i arctan(di ) である。 0.80
√ i |k|(cid:17)2 √ 私は k|(cid:17)2 0.70
k)2 k < 0 k = 0 k)2 k < 0 k = 0 0.85
k > 0 Distance: The seven step procedure for calculating distance in the compact dual can be modified to give a procedure for the distance in Bk n. To calculate the Riemannian distance, Step 7 must be replaced with the distance formula above. k>0。 距離: コンパクト双対における距離を計算するための7つのステップ手順は、bk n における距離の手順を与えるように修正することができる。
訳抜け防止モード: k>0。 距離 : コンパクト双対における距離を計算するための7つのステップ リーマン距離を計算するために bk n における距離の手順を与える。 ステップ7は、上記の距離式に置き換えなければならない。
0.81
The only other changes involve the construction of the matrix called M その他の変更は m と呼ばれる行列の構築を伴う 0.77
• In step 2, the computation of P is unchanged but A is • ステップ2 では p の計算は変化しないが a は a である 0.84
replaced with A = (Id + kP 2)−1/2. A = (Id + kP2) −1/2 で置き換える。 0.83
• In step 3, the matrix M is replaced with −AP A • ステップ3では、行列 m は −ap a に置き換えられる。 0.78
sgn(k)AP M = sgn(k)AP M = 0.85
A (cid:18) A (cid:18) 0.82
(cid:19) (cid:19) 0.78
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
(|V |,|E|) (|V |,|E|) 0.97
3 3 3 3 3 3 3 3 3 3 3 3 0.85
S R S F∞ S F1 BR BF∞ BF1 DR DF∞ DF1 S R S F∞ S F1 BR BF∞ BF1 DR DF∞ DF1 S R S F∞ S F1 BR BF∞ BF1 DR DF∞ DF1 S R S F∞ S F1 BR BF∞ BF1 DR DF∞ DF1 0.79
3 4 4 4 4 4 3 4 4 4 4 4 0.85
4 4 4 3 3 4 4 4 4 3 3 4 0.85
2D GRID (36, 60) 2次元GRID(36,60) 0.83
Davg mAP 12.29 0.21 0.02 12.26 0.29 0.01 47.59 63.85 28.68 12.27 0.49 0.01 12.24 0.17 0.01 41.82 53.31 13.38 Davg mAP 12.29 0.21 0.02 12.26 0.29 0.01 47.59 63.85 28.68 12.27 0.49 0.01 12.24 0.17 0.01 41.82 53.31 13.38 0.43
100.00 100.00 100.00 100.00 100.00 100.00 54.35 18.94 82.96 100.00 100.00 100.00 100.00 100.00 100.00 78.20 79.34 100.00 100.00 100.00 100.00 100.00 100.00 100.00 54.35 18.94 82.96 100.00 100.00 100.00 100.00 100.00 100.00 78.20 79.34 100.00 0.41
TREE (40, 39) TREE(40,39) 0.82
Davg mAP 4.27 2.01 2.10 4.14 2.04 2.06 69.65 75.33 38.84 4.20 1.72 1.58 4.10 1.18 1.48 65.95 74.19 23.64 Davg mAP 4.27 2.01 2.10 4.14 2.04 2.06 69.65 75.33 38.84 4.20 1.72 1.58 4.10 1.18 1.48 65.95 74.19 23.64 0.43
95.00 100.00 100.00 94.17 100.00 99.17 29.05 15.18 55.28 98.33 100.00 100.00 100.00 100.00 100.00 31.76 19.16 71.94 95.00 100.00 100.00 94.17 100.00 99.17 29.05 15.18 55.28 98.33 100.00 100.00 100.00 100.00 100.00 31.76 19.16 71.94 0.41
Table 8. Comparison of the compact dual model to the upper half space and bounded domain model on two synthetic datasets. 表8。 2つの合成データセット上でのコンパクトな双対モデルと上半空間および有界領域モデルの比較 0.79
Where sgn(k) = 0 if k = 0. ここで sgn(k) = 0 は k = 0 である。 0.79
Note the computation of M.X in Step 5 also changes, as M has changed. ステップ5におけるM.Xの計算も変更され、Mも変更された。 0.73
Now M.X = (AX − AP )(sgn(k)AP X − A)−1. 現在 M.X = (AX − AP )(sgn(k)AP X − A)−1 である。 0.91
B.12. Experiments on the Compact Dual B.12。 コンパクト双対の実験 0.56
We perform experiments on small synthetic datasets to compare the performance of the dual model to the upper half Siegel space and the Bounded domain model. 両モデルの性能を上半分のジーゲル空間と境界領域モデルと比較するために,小さな合成データセットの実験を行った。 0.78
Results are reported in Table 8. 結果は表8に記載されている。 0.63
We can observe the reduced representation capabilities of the compact dual model, even on small datasets. 小型のデータセットであっても、コンパクトな双対モデルの表現能力の低下を観測できる。 0.80
C. Experimental Setup C.1. C.実験セットC.1。 0.71
Implementation of Complex Operations All models and experiments were implemented in PyTorch (Paszke et al , 2019) with distributed data parallelism, for high performance on clusters of CPUs/GPUs. 複雑な操作の実装 すべてのモデルと実験はPyTorch (Paszke et al , 2019) で実装され、CPU/GPUクラスタ上での高性能な分散データ並列処理を実現した。 0.78
Given a complex matrix Z ∈ Cn×n, we model real and imaginary components Z = X + iY with X, Y ∈ Rn×n separate matrices with real entries. 複素行列 Z ∈ Cn×n が与えられたとき、実成分と虚成分 Z = X + iY を X, Y ∈ Rn×n でモデル化する。 0.71
We followed standard complex math to implement basic arithmetic matrix operations. 基本的な算術行列演算を実装するために、標準複素数式に従う。 0.58
For complex matrix inversion we implemented the procedure detailed in Falkenberg (2007). 複素行列の反転については、falkenberg (2007) に詳述した手順を実装した。 0.55
Hardware: All experiments were run on Intel Cascade Lake CPUs, with microprocessors Intel Xeon Gold 6230 (20 Cores, 40 Threads, 2.1 GHz, 28MB Cache, 125W TDP). ハードウェア:全ての実験はIntel Cascade Lake CPU上で行われ、Intel Xeon Gold 6230 (20コア、40スレッド、2.1GHz、28MBキャッシュ、125W TDP)。 0.81
Although the code supports GPUs, we did not utilize them due to higher availability of CPU’s. コードはGPUをサポートしていますが、CPUの高可用性のために利用できませんでした。 0.71
C.2. Optimization As stated before, the models under consideration are Riemannian manifolds, therefore they can be optimized via stochastic Riemannian optimization methods such as RSGD (Bonnabel, 2011) (we adapt the Geoopt implementation (Kochurov et al , 2020)). C2。 最適化 前述したように、検討中のモデルはリーマン多様体であるため、RSGD (Bonnabel, 2011) のような確率的リーマン最適化手法によって最適化することができる(Geoopt の実装(Kochurov et al , 2020))。 0.73
Given a function f (θ) defined over the set of embeddings (parameters) θ and let ∇R denote the Riemannian gradient of f (θ), the parameter update according to RSGD is of the form: 埋め込み(パラメータ) θ の集合上で定義される函数 f (θ) が f (θ) のリーマン勾配を表すとき、RSGD によるパラメータの更新は以下の形式である。 0.79
θt+1 = Rθt(−ηt∇Rf (θt)) θt+1 = Rθt(−ηt>Rf(θt)) 0.58
where Rθt denotes the retraction onto space at θ and ηt denotes the learning rate at time t. Hence, to apply this type of optimization we require the Riemannian gradient (described in Appendix B.6) and a suitable retraction. rθt が θ, ηt が時間 t における空間上のリトラクションを表すとき、このタイプの最適化を適用するには、リーマン勾配(付録 b.6 で記述される)と適切なリトラクションが必要である。 0.77
Retraction: Following Nickel & Kiela (2017) we experiment with a simple retraction: Retraction: Nickel & Kiela (2017)に続いて、簡単なRetractionを試しました。 0.83
Rθt(v) = θ + v Rθt(v) = θ + v 0.96
C.3. Graph Reconstruction Loss Function: To compute the embeddings, we optimize the distance-based loss function proposed in Gu et al (2019). C3。 グラフ再構成損失関数: 埋め込みを計算するために, Gu et al (2019) で提案された距離に基づく損失関数を最適化する。 0.74
Given graph distances {dG(Xi, Xj)}ij between all pairs of connected nodes, the loss is defined as: すべての連結ノード間のグラフ距離 {dg(xi, xj)}ij が与えられると、損失は次のようになる。 0.81
L(x) = (cid:88) L(x) = (cid:88) 0.82
1≤i≤j≤n (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) 1≤i≤j≤n (cid:12)(cid:12)(cid :12)(cid:12) 0.59
(cid:18) dP (xi, xj) (cid:18)dp(xi,xj) 0.92
dG(Xi, Xj) dG(Xi, Xj) 0.85
(cid:19)2 − 1 (cid:19)2 − 1 0.92
(cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12) 0.89
where dP (xi, xj) is the distance between the corresponding node representations in the embeddings space. dP (xi, xj) は埋め込み空間内の対応するノード表現の間の距離である。 0.80
This formulation of the loss function captures the average distortion. この損失関数の定式化は平均歪みをキャプチャする。 0.81
We regard as future work experimenting with different loss functions, similar to the ones proposed on Cruceru et al (2020). 我々は、Cruceru et al (2020) で提案されたような、異なる損失関数の実験を将来の作業とみなす。 0.73
Evaluation Metrics: To measure the quality of the learned embeddings we follow the same fidelity metrics applied in Gu et al (2019), which are distortion and precision. 評価指標: 学習した埋め込みの質を計測するために、Gu et al (2019)で適用されたのと同じ忠実度指標(歪みと精度)に従う。 0.76
The distortion of a pair of connected nodes a, b in the graph G, where f (a), f (b) are their respective embeddings in the space P is given by: グラフ g における一対の連結ノード a, b の歪みは、f(a),f(b) がそれぞれの空間 p への埋め込みであるときに次のようになる。 0.85
distortion(a, b) = 歪み(a, b) = 0.72
|dP (f (a), f (b)) − dG(a, b)| |dP (f (a), f (b)) − dG(a, b)| 0.85
dG(a, b) dG(a, b) 0.85
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
Figure 11. a) Cartesian product of tree and 2D grid. 図 11.a) 木と2Dグリッドの直交積。 0.73
b) Cartesian product of tree and tree. b)木と木のデカルト生成物 0.62
c) Rooted product of tree and 2D grids. c) 木と2Dグリッドの屋根付き製品。 0.79
d) Rooted product of 2D grid and trees. d) 2dグリッドと樹木の根生成物。 0.83
Graph Nodes Edges グラフ Nodes Edges 0.81
Triples Grid Layout 三重奏 Grid Layout 0.70
Tree Valency Tree Height 木 ヴァレンシー 樹高 0.53
4D GRID TREE TREE × GRID TREE × TREE TREE (cid:5) GRIDS GRID (cid:5) TREES 4dグリッド 木 TREE × GRID × TREE (cid:5) GRIDS GRID (cid:5) TREES 0.71
625 364 496 225 775 775 625 364 496 225 775 775 0.85
2000 363 1,224 420 1,270 790 2000 363 1,224 420 1,270 790 0.75
195,000 66,066 122,760 25,200 299,925 299,925 195,000 66,066 122,760 25,200 299,925 299,925 0.43
(5)4 4 × 4 5 × 5 5 × 5 (5)4 4 × 4 5 × 5 5 × 5 0.85
3 2 2 2 2 5 3 3 4 4 3 2 2 2 2 5 3 3 4 4 0.85
Table 9. Synthetic graph stats 表9。 合成グラフの統計 0.76
The average distortion Davg is the average over all pairs of points. 平均歪み davg は全ての点の対の平均である。 0.69
Distortion is a global metric that considers the explicit value of all distances. 歪は全距離の明示的な値を考える大域的計量である。 0.75
The other metric that we consider is the mean average precision (mAP). もう1つの測定基準は平均的精度(mAP)である。 0.75
It is a ranking-based measure for local neighborhoods that does not track explicit distances. 明示的な距離を追跡しない地域地区のランキングに基づく尺度である。 0.71
Let G = (V, E) be a graph and node a ∈ V have neighborhood Na = {b1, ..., bdeg(a)}, where deg(a) is the degree of a. G = (V, E) をグラフとし、ノード a ∈ V を近傍 Na = {b1, ..., bdeg(a)} とする。
訳抜け防止モード: G = ( V, E ) をグラフとし、ノード a ∈ V を近傍 Na = { b1 とする。 , bdeg(a ) } , deg(a ) は a の次数である。
0.82
In the embedding f, define Ra,bi to be the smallest ball around f (a) that contains bi (that is, Ra,bi is the smallest set of nearest points required to retrieve the i-th neighbor of a in f). 埋め込み f において、Ra,bi は bi を含む f (a) を取り巻く最小の球(つまり、Ra,bi は a の i 番目の隣点を取得するのに必要な最も近い点の集合)であると定義する。 0.82
Then: (cid:88) すると (cid:88) 0.65
|Na|(cid:88) |Na|(cid:88) 0.65
1 mAP(f ) = 1 mAP(f ) = 0.85
1 |V | a∈V 1 |V | a- + V 0.60
deg(a) i=1 deg(a) i=1 0.72
|Na ∩ Ra,bi| |Na > Ra,bi| 0.63
|Ra,bi| Data: We employ NetworkX (Hagberg et al , 2008) to generate the synthetic datasets, and their Cartesian and rooted products. |Ra,bi| データ: networkx (hagberg et al , 2008) を使用して、合成データセットとそのデカルト的およびルート化された製品を生成する。
訳抜け防止モード: |Ra,bi| データ:NetworkX(Hagberg et al, 2008)を採用しています。 合成データセットとそのCartesianおよびrooted製品を生成する。
0.81
The statistics of the synthetic datasets reported in this work are presented in Table 9, and a diagram of the graphs can be seen in Figure 11. 本研究で報告された合成データセットの統計はテーブル9に、グラフの図は図11に示されている。 0.75
The real-world datasets were downloaded from the Network Repository (Rossi & Ahmed, 2015). 実際のデータセットはNetwork Repository(Rossi & Ahmed, 2015)からダウンロードされた。 0.85
Stats are presented in Table 10. 統計は表10に示されています。 0.68
By triples we mean the 3-tuple (u, v, d(u, v)), where u, v represent connected nodes in the graph, and d(u,v) is the shortest distance between them. 三重項により、3つのタプル (u, v, d(u, v)) を意味し、u, v はグラフ内の連結ノードを表し、d(u, v) はそれらの間の最も短い距離である。 0.83
Setup Details: For all models and datasets we run the same grid search and optimize the distortion loss, apply- 設定の詳細: すべてのモデルとデータセットに対して、同じグリッド検索を実行し、歪み損失を最適化します。 0.70
Graph USCA312 bio-diseasome csphd road-euroroad facebook graph usca312 bio-diseasome csphd road-euroroad facebook 0.65
Nodes Edges 48,516 1,188 1,043 1,305 88,234 Nodes Edges 48,516 1,188 1,043 1,305 88,234 0.52
312 516 1,025 1,039 4,039 312 516 1,025 1,039 4,039 0.59
Triples 48,516 132,870 524,800 539,241 8,154,741 Triples 48,516 132,870 524,800 539,241 8,154,741 0.43
Table 10. Real-world graph stats 表10。 実世界のグラフ統計 0.70
ing RSGD. We report the average of 5 runs in all cases. リングRSGD。 私たちはすべてのケースで平均5ランを報告します。 0.61
The implementation of all baselines are taken from Geoopt (Kochurov et al , 2020). すべてのベースラインの実装はGeoopt(Kochurov et al , 2020)から取られた。 0.69
We train for 3000 epochs, reducing the learning rate by a factor of 5 if the model does not improve the performance after 50 epochs, and early stopping based on the average distortion if the model does not improve after 150 epochs. 3000エポックをトレーニングし,50エポック後のモデルが改善しなかった場合の学習率を5倍に削減し,150エポック後のモデルが改善しなかった場合の平均歪みに基づいて早期に停止する。 0.75
We use the burn-in strategy (Nickel & Kiela, 2017; Cruceru et al , 2020) training with a 10 times smaller learning rate for the first 10 epochs. バーンイン戦略(Nickel & Kiela, 2017; Cruceru et al , 2020)を、最初の10回で10倍の学習率でトレーニングしています。 0.76
We experiment with learning rates from {0.05, 0.01, 0.005, 0.001}, batch sizes from {512, 1024, 2048} and max gradient norm from {10, 50, 250}. 学習速度は{0.05, 0.01, 0.005, 0.001},バッチサイズは {512, 1024, 2048},最大勾配ノルムは {10, 50, 250} である。
訳抜け防止モード: 005, 0.01, 0.005の学習率を用いて実験を行った。 0.001 }, batch sizes from { 512, 1024, 2048 } 10, 50, 250 } からの最大勾配ノルム。
0.87
Experimental Observations: We noticed that for some combinations of hyper-parameters and datasets, the learning process for the Bounded domain model becomes unstable. 実験結果: ハイパーパラメータとデータセットの組み合わせによって, 境界ドメインモデルの学習プロセスが不安定になることに気付いた。 0.69
Points eventually fall outside of the space, and need to be projected in every epoch. ポイントは最終的に空間の外に落ち、各時代ごとに投影される必要がある。 0.67
We did not observe this behavior on the Siegel model. 我々はシーゲル模型でこの挙動を観察しなかった。 0.75
We consider that these findings are in line with the ones reported on Nickel & Kiela (2018), where they observe that the Lorentz model, since it is unbounded, is more stable for gradient-based optimization than the Poincar´e one. これらの発見は Niel & Kiela (2018) で報告された結果と一致しており、ローレンツモデルは非有界であるため、ポアンカー ́e よりも勾配に基づく最適化の方が安定である。 0.67
C.4. Recommender Systems Setup Details: For all models and datasets we run the same grid search and optimize the Hinge loss from Equation 3, applying RSGD. C.4。 Recommender Systems Setup 詳細: すべてのモデルとデータセットに対して、同じグリッド検索を実行し、Equation 3からのHinge損失を最適化し、RSGDを適用します。 0.69
We report the average of 5 runs in all cases. 私たちはすべてのケースで平均5ランを報告します。 0.70
We train for 500 epochs, reducing the learning rate by a factor of 5 if the model does not improve 我々は500エポックのトレーニングを行い、モデルが改善しなかった場合、学習率を5倍に削減する。 0.76
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
Dataset ml-1m ml-100k last.fm meetup-nyc dataset ml-1m ml-100k last.fm meetup-nyc 0.44
Users 6,040 943 1,892 46,895 ユーザ6,040 943 1,892 46,895 0.53
Items 3,706 1,682 17,632 16,612 品目3,706,68217,63216,61 2 0.53
Interactions Density (%) 1,000,209 100,000 92,834 277,863 相互作用密度(%) 1,000,209 100,000 92,834 277,863 0.67
4.47 6.30 0.28 0.04 4.47 6.30 0.28 0.04 0.45
Dataset Nodes Classes Triples 11,175 IRIS 5,050 ZOO GLASS 22,790 Dataset Nodes Classs Triples 11,175 IRIS 5,050 ZOO GLASS 22,790 0.76
150 101 214 150 101 214 0.85
3 7 6 Table 11. 3 7 6 背番号11。 0.64
Recommender system dataset stats Recommender System dataset stats 0.84
Table 12. Machine learning datasets used for node classification. 表12。 ノード分類に使用される機械学習データセット。 0.76
the performance after 50 epochs, and early stopping based on the dev set if the model does not improve after 150 epochs. 50エポック後のパフォーマンスと、150エポック後のモデルが改善しない場合、開発セットに基づいて早期に停止する。 0.74
We use the burn-in strategy (Nickel & Kiela, 2017; Cruceru et al , 2020) training with a 10 times smaller learning rate for the first 10 epochs. バーンイン戦略(Nickel & Kiela, 2017; Cruceru et al , 2020)を、最初の10回で10倍の学習率でトレーニングしています。 0.76
We experiment with learning rates from {0.1, 0.05, 0.01, 0.005, 0.001}, batch sizes from {1024, 2048} and max gradient norm from {10, 50, 250}. 我々は,{0.1, 0.05, 0.01, 0.005, 0.001}, {1024, 2048} のバッチサイズ, {10, 50, 250} の最大勾配ノルムの学習率を実験した。 0.81
Data: We provide a brief description of the datasets used in the recommender systems experiments. データ: 推奨システム実験で使用されるデータセットの簡単な説明を提供する。 0.79
• ml-1m and ml-100k: refers to the MovieLens datasets • ml-1m および ml-100k: MovieLens データセットを参照 0.71
(Harper & Konstan, 2015).4 (Harper & Konstan, 2015)4。 0.91
• last.fm: Dataset of artist listening records from 1892 ラスト.fm:1892年のアーティストのレコードを聴くデータセット 0.62
users (Cantador et al , 2011).5 ユーザ(Cantador et al , 2011.5) 0.81
• meetup: dataset crawled from Meetup.com, where the goal is to recommend events to users (Pham et al , 2015). • meetup: データセットはmeetup.comからクロールされ、ユーザにイベントを推奨する(pham et al , 2015)。 0.85
The dataset consists of the data from two regions, New York City (NYC) and state of California (CA), we only report results for NYC. このデータセットは、ニューヨーク市(NYC)とカリフォルニア州(CA)の2つの地域のデータで構成されており、ニューヨーク市についてのみ結果が報告されている。 0.73
Stats for the datasets are presented in Table 11. データセットの統計はテーブル11に表示される。 0.85
To generate evaluation splits, the penultimate and last item the user has interacted with are withheld as dev and test set respectively. 評価分割を生成するには、ユーザが操作したペナルティメートとラストアイテムはそれぞれ、開発とテストセットとして保持される。
訳抜け防止モード: 評価スプリットを生成する ユーザが操作したペナルティメイトとラストアイテムはそれぞれ、開発とテストセットとして保持される。
0.77
C.5. Node Classification Setup Details: In these experiments, for all datasets we use the cosine distance on the datapoints’ features to compute a complete input distance graph. c.5. ノード分類の詳細: これらの実験では、すべてのデータセットに対して、データポイントの機能のコサイン距離を使用して、完全な入力距離グラフを計算します。 0.70
We employ the available features and normalize them so that each attribute has mean zero and standard deviation one. 利用可能な機能を採用し、それらを正規化し、それぞれの属性が0と標準偏差を持つようにします。
訳抜け防止モード: 利用可能な機能を採用し、それらを正規化しています。 それぞれの属性は ゼロと標準偏差です
0.67
Once we have a graph, we embed it in the exact same way than in the graph reconstruction task. 一度グラフが得られたら、グラフ再構築タスクと全く同じ方法でそれを埋め込む。 0.62
Finally, we use the learned node embeddings as features to feed a logistic regression classifier 最後に、学習ノード埋め込みを特徴として使用し、ロジスティック回帰分類器を供給します。 0.58
Matrix Mapping: Since the node embeddings lie in different metric spaces, we apply the corresponding logarithmic map to obtain a ”flat” representation before classifying. 行列写像: ノードの埋め込みは異なる距離空間にあるので、対応する対数写像を適用して、分類する前に「フラット」表現を得る。
訳抜け防止モード: 行列写像 : ノードの埋め込みは異なる距離空間にあるので、 対応する対数マップを適用します 分類する前に“フラット”表現を得る。
0.74
4https://grouplens.o rg/datasets/ 4https://grouplens.o rg/datasets/ 0.39
movielens/ movielens/ 0.78
5https://grouplens.o rg/datasets/ 5https://grouplens.o rg/datasets/ 0.39
hetrec-2011/ Hetrec-2011/ 0.46
For the Siegel upper half-space model of dimension n, we apply the following mapping. 次元 n のシーゲル上半空間モデルに対して、次の写像を適用する。 0.65
From each complex matrix embedding Z = X +iY we stack the result of the following operations in matrix form as: 各複素行列の埋め込み z = x + iy から、以下の行列形式の演算の結果を以下のように積み重ねる。 0.73
(cid:18)Y + XY −1X XY −1 (cid:18)Y + XY −1XY −1 0.83
(cid:19) M = (cid:19) M = 0.82
Y −1X Y −1 where M ∈ R2n×2n. Y−1X y −1 M ∈ R2n×2n。 0.74
This mapping is the natural realisation of HypSPDn as a totally geodesic submanifold of SPD2n. この写像は、SPD2nの完全測地部分多様体としてのHypSPDnの自然な実現である。 0.53
Since M ∈ SPD2n, finally we apply the LogEig map as proposed by Huang & Gool (2017), which yields a representation in a flat space. M ∈ SPD2n であるから、最終的には、Huang & Gool (2017) が提案した LogEig 写像を適用する。 0.63
This operations results in new matrix of the form: この操作は、フォームの新しいマトリックスをもたらす。 0.63
(cid:18)U V V −U (cid:18)u V V −U 0.88
(cid:19) LogEig(M ) = (cid:19) LogEig(M ) = 0.82
where U, V ∈ Sym(n). ここで u, v ∈ sym(n) である。 0.68
The final step is to take the upper triangular from U and V , and concatenate them as a vector of n(n + 1) dimensions. 最後のステップは、U と V から上の三角形を取り、それらを n(n + 1) 次元のベクトルとして連結することである。 0.76
This procedure is implemented for the Upper half-space. この手順は上半空間に適用される。 0.74
In the case of the Bounded domain model, we first map the points to the upper half-space with the Cayley transform. 有界領域モデルの場合、まず点をケイリー変換とともに上半空間に写像する。 0.48
Datasets: All datasets were downloaded from the UCI Machine Learning Repository (Dua & Graff, 2017). データセット: すべてのデータセットは、UCI Machine Learning Repository(Dua & Graff, 2017)からダウンロードされた。 0.71
6 Statistics about the datasets used are presented in Table 12. 使用するデータセットに関する6つの統計を表12に示す。 0.74
C.6. Learning the Weights for Finsler Distances C.6。 フィンスラー距離の重みの学習 0.69
dFW (Z1, Z2) :(cid:80)n dFW (Z1, Z2) : (cid:80)n 0.88
Both Finsler metrics F1 and F∞ exhibit outstanding results in our experiments. フィンスラー計量 F1 と F∞ はともに実験で顕著な結果を示した。 0.66
However, there are significant differences in their relative performances depending on the target dataset. しかし、ターゲットデータセットによる相対的なパフォーマンスには大きな違いがある。 0.70
F1 and F∞ are two metrics among many variants in the family of Finsler metrics. F1 と F∞ はフィンスラー計量の族における多くの変種のうちの2つの指標である。 0.58
Thus, we propose an alternative of our Finslerian models, by learning weights for the summation of Algo 1, step 5, according to: i=1 [αi log(1+di/1−di)] where αi ∈ R are model parameters. したがって、αi ∈ r がモデルパラメータである i=1 [αi log(1+di/1−di)] に従って、algo 1, step 5 の和の重みを学習することによって、我々のフィンスラーモデルに代わるものを提案する。 0.73
The intuition behind this variant is to impose an inductive bias through the family of Finsler metrics, while allowing the model to learn from the data which particular metric is more suitable in each case. この変種の背後にある直感は、フィンスラー計量の族を通して帰納的バイアスを課すことであり、一方、モデルがそれぞれの場合においてより適した指標を持つデータから学べるようにすることである。
訳抜け防止モード: この変種の背後にある直感は、フィンスラー計量の族を通して帰納的バイアスを課すことである。 特定のメトリックがそれぞれのケースでより適したデータからモデルを学習できるようにする。
0.69
The model has flexibility to represent F1 or F∞, and also explore different variations, such as Finsler metrics of minimum entropy このモデルは f1 や f∞ を表す柔軟性を持ち、最小エントロピーのフィンスラー計量のような様々なバリエーションを探索する。
訳抜け防止モード: モデルにはF1やF∞を表現する柔軟性があり、異なるバリエーションを探索する。 最小エントロピーのフィンスラー測度など
0.76
6https://archive.ics .uci.edu/ml/datasets . 6https://archive.ics .uci.edu/ml/datasets 0.34
php php 0.85
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
4 S F∞ S F1 S FW 4 S F∞ S F1 S FW 0.88
4 4 Davg 5.92 0.01 0.00 4 4 Davg 5.92 0.01 0.00 0.74
mAP Davg 3.31 99.61 1.08 100.00 100.00 1.09 mAP Davg 3.31 99.61 1.08 100.00 100.00 1.09 0.50
4D GRID TREE × TREE 4dグリッド TREE × TREE 0.76
mAP Davg 10.88 99.95 100.00 1.03 100.00 0.91 mAP Davg 10.88 99.95 100.00 1.03 100.00 0.91 0.50
TREE (cid:5) GRIDS mAP 63.52 78.71 93.37 TREE (cid:5) GRIDS mAP 63.52 78.71 93.37 0.65
Table 13. Comparison with learning weights for Finsler metrics. 表13。 finslerメトリクスの学習重みとの比較。 0.72
(Boland & Newberger, 2001). (Boland & Newberger, 2001)。 0.79
We report results in Table 13. 表13で結果を報告する。 0.73
We observe that the model recovers the F1 metric in the cases where it is the most convenient, whereas for TREE (cid:5) GRIDS, it finds a more optimal solution. モデルが最も便利である場合にF1計量を復元するのに対し、TREE (cid:5) GRIDSではより最適な解を求める。 0.69
D. Distance Algorithm Complexity D.1. D. Distance Algorithm Complexity D.1 0.88
Theoretical Complexity In this section we discuss the computational theoretical complexity of the different operations involved in the development of this work. 理論的複雑性 本稿では,本研究の展開に係わる様々な操作の計算論的複雑さについて論じる。 0.69
We employ Big O notation7. 我々はビッグ・オ・ノメンテーション7を雇っている。 0.44
Since in all cases operations are not nested, but are applied sequentially, the costs can be added resulting in a polynomial expression. すべてのケースで操作はネストされないが順次適用されるため、コストを加算して多項式式を生成することができる。 0.72
Thus, by applying the properties of the notation, we disregard lower-order terms of the polynomial. したがって、記法の性質を適用することにより、多項式の下位項を無視する。 0.67
Real Matrix Operations: For n × n matrices with real entries, the associated complexity of each operation is as follows:8 実行列演算:実エントリを持つ n × n 行列の場合、各演算の関連する複雑性は以下の通りである。
訳抜け防止モード: 実行列演算 : 実エントリを持つ n × n 行列の場合 各操作の複雑さは以下の通りである。
0.78
• Addition and subtraction: O(n2) • Multiplication: O(n2.4) • Inversion: O(n2.4) • Diagonalization: O(n3) •加算・減算:O(n2) •乗算:O(n2.4) •反転:O(n2.4) •対角化:O(n3) 0.79
Complex Matrix Operations: A complex symmetric matrix Z ∈ Sym(n, C) can be written as Z = X + iY , where X = (cid:60)(Z), Y = (cid:61)(Z) ∈ Sym(n, R) are symmetric matrices with real entries. 複素行列演算: 複素対称行列 z ∈ sym(n, c) は z = x + iy と書くことができ、ここで x = (cid:60)(z), y = (cid:61)(z) ∈ sym(n, r) は実成分を持つ対称行列である。 0.80
We implement the elemental operations for these matrices with the following associated costs: これらの行列の要素演算を以下の関連するコストで実装する。 0.76
• Multiplication: O(n2.4). • 乗算: O(n2.4)。 0.63
It involves 4 real matrix multiplications, plus additions and subtractions. これは4つの実行列乗算と加法と減算を含む。 0.62
• Square root: O(n3). • 平方根: O(n3)。 0.79
It involves a diagonalization and 2 matrix multiplications.9 対角化と 2 個の行列乗算を含む。 0.58
7https://en.wikipedi a.org/wiki/Big_O_ 7https://en.wikipedi a.org/wiki/Big_O_ 0.26
notation 8https://en.wikipedi a.org/wiki/ 表記 8https://en.wikipedi a.org/wiki/ 0.51
Computational_comple xity_of_mathematical _ operations computational_comple xity_of_mathematical _ operations 0.34
9https://en.wikipedi a.org/wiki/Square_ 9https://en.wikipedi a.org/wiki/Square_ 0.29
root_of_a_matrix root_of_a_matrix 0.29
• Inverse: O(n2.4). • 逆: o(n2.4)。 0.75
It involves real matrix inversions and multiplications (Falkenberg, 2007). これは実行列の反転と乗法を含む(falkenberg, 2007)。 0.70
Takagi Factorization: This factorization involves complex and real multiplications (O(n2.4)), and diagonalizations (O(n3)). 高木因子化: この因子化は複素および実乗法(O(n2.4))と対角化(O(n3))を含む。 0.74
It also involves the diagonalization of a 2nx2n matrix, which implies: また、2nx2n行列の対角化も含んでいる。 0.74
O((2n)3) = O(8n3) (cid:39) O(n3) O((2n)3) = O(8n3) (cid:39) O(n3) 0.90
(7) Therefore, the final boundary for its cost is O(n3). (7) したがって、そのコストの最終的な境界は O(n3) である。 0.80
Cayley Transform: This operation along with its inverse are composed of matrix inversions and multiplications, thus the cost is O(n2.4). ケイリー変換:この演算は逆数とともに行列の逆数と乗法からなるので、コストは o(n2.4) である。 0.74
Distance Algorithm: The full computation of the distance algorithm in the upperhalf space involves matrix square root, multiplications, inverses, and the application of the Cayley transform and the Takagi factorization. 距離アルゴリズム: 上半空間における距離アルゴリズムの完全な計算は、行列平方根、乗算、逆数、ケイリー変換と高木因子分解の応用を含む。 0.71
Since they are applied sequentially, without affecting the dimensionality of the matrices, we can take the highest value as the asymptotic cost of the algorithm, which is O(n3). これらは連続的に適用されるので、行列の次元性に影響を与えることなく、最も高い値をアルゴリズムの漸近コスト(O(n3))とすることができる。 0.74
For the bounded domain, the matrices are mapped into the upperhalf space by an additional application of the inverse Cayley transform, and then the same distance algorithm is applied. 有界領域に対しては、行列は逆ケイリー変換のさらなる応用により上半空間に写像され、同じ距離アルゴリズムが適用される。 0.64
Therefore, in this space the complexity also converges to O(n3). したがって、この空間では複雑性も O(n3) に収束する。 0.79
D.2. Empirical Complexity D.2。 経験的複雑性 0.56
To empirically measure the time involved in the distance calculation we generate a batch of 1024 pairs of points (n×n matrices). 距離計算に係わる時間を経験的に測定するために、1024対の点(n×n行列)のバッチを生成する。 0.77
We perform the time evaluation for different values of n. Results can be observed in Figure 12. 我々は n の異なる値に対する時間評価を行い、結果が図 12 に示される。 0.81
We observe that as we increase the dimensionality, the relation tends to be polynomial, in line with the theoretical cost stated in §4. 次元を増加させるにつれて、その関係は 4 に記載された理論コストと一致して多項式になりがちである。 0.68
E. Vector-valued Distance: a Tool for the e. ベクトル値距離: そのツール 0.73
Analysis of Embeddings The vector-valued distance can also be used to develop other tools to analyze the embedding. 埋め込みの分析 ベクトル値距離は、埋め込みを分析する他のツールの開発にも使われる。 0.78
More specifically we use it not only to create a continuous edge coloring as in Section 6, but also a vector distance plot, and a continuous node coloring with respect to a root. より具体的には、セクション6のように連続エッジ色付けを作成するだけでなく、ベクトル距離プロットや、ルートに関して連続ノード色付けを作成するために使用する。 0.80
For the vectorial distance plot we sample pairs of connected vertices of the graph {zi, zj} and plot the result of vDist(Zi, Zj) = (v1, v2) (see Algorithm 1, step 6). ベクトル距離プロットに対して、グラフ {zi, zj} の連結頂点の対をサンプリングし、vDist(Zi, Zj) = (v1, v2) の結果をプロットする(アルゴリズム1、ステップ6参照)。 0.78
In Figure 13-20 we show the plots of (v1, v2) for the embeddings of different dataset embedded into the Upper Half models with respect to Riemannian, F1 and F∞ metrics. 図13-20では、リーマン、F1、F∞メトリクスに関して、アッパーハーフモデルに埋め込まれた異なるデータセットの埋め込みに対する(v1, v2)のプロットを示す。 0.67
In the F1 f1では 0.83
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
Figure 16. Plot of (v1, v2) of S R (center), and S F∞ (right) for vertex pairs sampled from EUROROAD. 図16。 EUROROAD からサンプリングされた頂点対に対する S R (center) の (v1, v2) と S F∞ (right) のプロット。 0.80
Color indicates ground-truth distance. 色は地中距離を表す。 0.67
2 (left), S F 1 2 (左) s f 1 0.66
2 2 Figure 12. Time of distance calculation for a batch of 1024 pairs of points for different matrix dimensions. 2 2 図12。 行列次元の異なる1024対の点のバッチに対する距離計算時間。 0.78
(center), and S F∞ Figure 17. (中心) および S F∞ 図 17。 0.79
Plot of (v1, v2) of S R (right) for vertex pairs sampled from GRID4D. GRID4D からサンプリングされた頂点対に対する S R (right) の (v1, v2) のプロット。 0.75
Color indicates ground-truth distance. 色は地中距離を表す。 0.67
2 (left), S F 1 2 (左) s f 1 0.66
2 2 Figure 13. Plot of (v1, v2) of S R (center), and S F∞ (right) for vertex pairs sampled from USCA312. 2 2 図13。 Plot of (v1, v2) of S R (center) and S F∞ (right) for vertex pairs were sampled from USCA312。 0.83
Color indicates ground-truth distance. 色は地中距離を表す。 0.67
2 (left), S F 1 2 (左) s f 1 0.66
2 2 Figure 14. Plot of (v1, v2) of S R (center), and S F∞ (right) for vertex pairs sampled from BIO-DISEASOME. 2 2 図14。 Plot of (v1, v2) of S R (center) and S F∞ (right) for vertex pairs were sampled from BIO-DISEASOME。 0.84
Color indicates ground-truth distance. 色は地中距離を表す。 0.67
2 (left), S F 1 2 (左) s f 1 0.66
2 2 Figure 18. Plot of (v1, v2) of S R (center), and S F∞ (right) for vertex pairs sampled from TREE × GRID. 2 2 図18。 Plot of (v1, v2) of S R (center) and S F∞ (right) for vertex pairs were sampled from TREE × GRID。 0.83
Color indicates ground-truth distance. 色は地中距離を表す。 0.67
2 (left), S F 1 2 (左) s f 1 0.66
2 2 Figure 19. Plot of (v1, v2) of S R (center), and S F∞ (right) for vertex pairs sampled from TREE × TREE. 2 2 図19。 Plot of (v1, v2) of S R (center) and S F∞ (right) for vertex pairs were sampled from TREE × TREE。 0.83
Color indicates ground-truth distance. 色は地中距離を表す。 0.67
2 (left), S F 1 2 (左) s f 1 0.66
2 2 Figure 15. Plot of (v1, v2) of S R (center), and S F∞ (right) for vertex pairs sampled from CSPHD. 2 2 図15。 CSPHD からサンプリングされた頂点対に対する S R (center) の (v1, v2) と S F∞ (right) のプロット。 0.82
Color indicates ground-truth distance. 色は地中距離を表す。 0.67
2 (left), S F 1 2 (左) s f 1 0.66
2 2 case, the addition of both d-values sums up to the distance, whereas for the F∞, the largest v (v1) corresponds to the distance. 2 2 例えば、両方のd-値の加算は距離に等しいが、F∞ の場合、最も大きい v (v1) は距離に対応する。 0.82
The plots match the (cid:96)1 and (cid:96)∞ metrics from Figure 2, verifying the intuition about the distances. 図2の(cid:96)1と(cid:96)∞の指標と一致するプロットは、距離に関する直観を検証する。 0.76
The vectorial distance plots give a first qualitative visualization of the embedding. ベクトル距離プロットは埋め込みの最初の定性的可視化を与える。 0.78
For dissimilar data sets, the edge plots look quite different. 異なるデータセットの場合、エッジプロットはかなり異なるように見える。 0.67
They can accumulate near the 彼らは近くで蓄積できます 0.66
Figure 20. Plot of (v1, v2) of S R (center), and S F∞ (right) for vertex pairs sampled from TREE. 図20。 Plot of (v1, v2) of S R (center) and S F∞ (right) for vertex pairs were sampled from TREE。 0.80
Color indicates groundtruth distance. 色は地底距離を表す。 0.69
2 (left), S F 1 2 (左) s f 1 0.66
2 2 boundary of the cone (the diagonal or the horizontal), or be evenly distributed. 2 2 円錐の境界(対角線または水平線)、または均等に分布する 0.81
The can also be refined by sampling only specific edges of the graph. グラフの特定のエッジのみをサンプリングすることで精製することもできる。 0.76
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
To construct a continuous node coloring we choose one vertex of our graph as the root r. For every other node z we take the vector-valued distance from r to z, and assign the ratio v2/v1 as a value for this node. 他のすべてのノード z に対して、ベクトル値付き距離 r から z を取り、このノードの値として比 v2/v1 を割り当てる。
訳抜け防止モード: 連続ノードカラー化を構築する 私たちはグラフの頂点を根 r として選ぶ。 他のすべてのノード z に対して、ベクトル - r から z への値付き距離を取る。 このノードの値として v2 / v1 を割り当てます。
0.74
We again represent the corresponding real number by a color shading, as in Figures 21. また、図21のように、対応する実数をカラーシェーディングで表現する。 0.66
It can be thought as the accumulated angle over a path from the root r to the node z. 根 r からノード z への経路上の累積角と考えることができる。 0.61
Evaluating the Quality of Embeddings: In the case of synthetic graphs, where we have full knowledge of the internal structure, we can use the edge and the node angles to compare the embeddings with respect to the Riemannian distance and the Finsler metrics F1 and F∞. 埋め込みの質を評価する: 内部構造に関する完全な知識を持つ合成グラフの場合、埋め込みをリーマン距離とフィンスラー計量 f1 と f∞ に関して比較するために辺とノードの角度を用いることができる。 0.74
Illustrating this with the two dimensional grid, we observe in Figure 21 that while in the Finsler metric all edges have the same angle, the embedding optimizing the Riemannian distance is more distorted and less geodesics. これを2次元格子で示した図21では、フィンスラー計量ではすべての辺が同じ角度を持つが、リーマン距離を最適化する埋め込みはより歪みやすく、測地線も少ない。 0.74
In the case of the Finsler distances one can also see more clearly that the symmetries of the graph are respected in the embedding. フィンスラー距離の場合には、グラフの対称性が埋め込みで尊重されていることもより明確に見ることができる。 0.78
This shows that the Finsler embeddings are much better in representing structural features of the graphs than the Riemannian embeddings. これは、フィンスラー埋め込みがリーマン埋め込みよりもグラフの構造的特徴を表現するのに優れていることを示している。 0.57
Figure 21. Analysis of S R (right) for a 5×5 grid. 図21。 5×5グリッドにおけるs r (right) の解析 0.80
Node colors indicate the angle of the vector-valued distance by taking the path from the central node. ノードの色は、中央ノードから経路を取ることでベクトル値距離の角度を示す。 0.85
Edge colors indicate the angle for each edge. エッジカラーは各エッジの角度を示す。 0.81
(center), and S F 1 2 (left), S F∞ (中心)及びsf1 2 (左) s f∞ 0.64
2 2 2 2 ,S F 1 2 2 2 2 、S F 1。 0.85
2 ,S F∞ More Edge Coloring: We plot the edge coloring for the three analyzed metric spaces, namely S R for the datasets analyzed in Figure 4, and for CSPHD in Figure 2225. 2 ,S F∞ エッジカラー化: 分析された3つの距離空間、すなわち図4で分析されたデータセットと図2225で分析されたCSPHDのエッジカラー化をプロットする。 0.88
We can observe that in the Riemannian metric plots (left-hand side) there is no clear pattern that separates flat and hierarchical components in the graphs. リーマン計量プロット(左辺)では、グラフ内の平坦かつ階層的なコンポーネントを分離する明確なパターンが存在しないことが観察できる。 0.82
The F∞ and F 1 metrics are the best at capturing the structural aspect of the datasets. F∞ と F 1 のメトリクスはデータセットの構造的側面を捉えるのに最適である。 0.80
They recognize very similar patterns, though they assign opposite angles to the vector-valued distance vectors, and this can be noticed from the fact that the colors assigned are in opposite sides of the spectrum (yellow means angles close to zero, blue means angles close to 45°). 彼らは非常に類似したパターンを認識するが、ベクトル値距離ベクトルに対して反対の角度を割り当てており、割り当てられた色がスペクトルの反対側にあるという事実から注意される(yellowはゼロに近い角度、blueは45°に近い角度)。 0.85
To plot these visualizations and the ones of Figure 5, we adapted code released10 by Cruceru et al (2020). これらの視覚化と図5の図をプロットするために、Crucru et al (2020)によるコードリリース10を適応しました。 0.68
10https://github.com /dalab/ 10https://github.com /dalab/ 0.39
matrix-manifolds/blo b/master/analysis/pl ot_ ricci_curv.py matrix-manifolds/blo b/master/analysis/pl ot_ ricci_curv.py 0.20
Figure 22. Edge coloring of S R (right) for a tree. 図22。 木に対する s r (right) のエッジカラー化。 0.71
2 (left), S F∞ 2 (左) s f∞ 0.72
2 Figure 23. Edge coloring of S R (right) for a TREE (cid:5) GRIDS. 2 図23。 TREE (cid:5) GRIDS用のSR(右)のエッジカラー化。 0.80
2 (left), S F∞ 2 (左) s f∞ 0.72
2 Figure 24. Edge coloring of S R (right) for a GRID (cid:5) TREES. 2 図24。 GRID(cid:5)TREESのためのSR(右)のエッジカラー化 0.80
2 (left), S F∞ 2 (左) s f∞ 0.72
2 Figure 25. Edge coloring of S R (right) for CSPHD. 2 図25。 csphd における s r (right) のエッジカラー化 0.76
2 (left), S F∞ 2 (左) s f∞ 0.72
2 (center), and S F 1 2 (中心)及びsf1 0.71
2 (center), and S F 1 2 (中心)及びsf1 0.71
2 (center), and S F 1 2 (中心)及びsf1 0.71
2 (center), and S F 1 2 (中心)及びsf1 0.71
2 F. More Results Results for graph reconstruction in lower dimensions are presented in Table 14 2 f.低次元のグラフ再構成に関するさらなる結果が表14に示されている。 0.80
英語(論文から抽出)日本語訳スコア
Symmetric Spaces for Graph Embeddings グラフ埋め込みのための対称空間 0.74
TREE (364, 363) Davg 5.71±0.01 2.09±0.28 1.61±0.07 0.92±0.04 1.69±0.03 1.35±0.39 1.07±0.04 1.63±0.06 2.59±0.34 1.13±0.03 木 (364, 363) Davg 5.71±0.01 2.09±0.28 1.61±0.07 0.92±0.04 1.69±0.03 1.35±0.39 1.07±0.04 1.63±0.06 2.59±0.34 1.13±0.03 0.39
mAP 32.72 97.32 100.00 99.95 71.64 99.35 74.98 70.70 98.94 79.21 mAP 32.72 97.32 100.00 99.95 71.64 99.35 74.98 70.70 98.94 79.21 0.44
TREE × GRID (496, 1224) 木×格子(496,1224) 0.63
Davg 9.80±0.00 17.12±0.00 9.20±0.03 12.92±0.86 9.26±0.01 7.98±0.66 2.02±0.02 10.04±0.03 10.33±0.47 2.02±0.00 Davg 9.80±0.00 17.12±0.00 9.20±0.03 12.92±0.86 9.26±0.01 7.98±0.66 2.02±0.02 10.04±0.03 10.33±0.47 2.02±0.00 0.20
mAP 83.25 83.29 100.00 89.71 99.57 99.47 100.00 92.20 93.58 100.00 mAP 83.25 83.29 100.00 89.71 99.57 99.47 100.00 92.20 93.58 100.00 0.44
TREE × TREE (225, 420) Davg 9.79±0.00 20.55±0.12 9.34±0.05 9.71±2.47 8.80±0.21 3.97±0.34 1.84±0.02 9.10±0.10 4.74±0.00 1.92±0.07 TREE × TREE (225, 420) Davg 9.79±0.00 20.55±0.12 9.34±0.05 9.71±2.47 8.80±0.21 3.97±0.34 1.84±0.02 9.10±0.10 4.74±0.00 1.92±0.07 0.29
mAP 95.97 75.98 98.14 96.82 97.47 99.64 100.00 96.78 96.66 100.00 mAP 95.97 75.98 98.14 96.82 97.47 99.64 100.00 96.78 96.66 100.00 0.44
(|V |,|E|) (|V |,|E|) 0.97
4D GRID (625, 2000) 4D GRID(625, 2000) 0.95
E12 H12 3 E6 × H6 H6 × H6 S R S F∞ S F1 BR BF∞ BF1 E12 H12 3 E6 × H6 × H6 S R S F∞ S F1 BR BF∞ BF1 0.80
3 3 3 3 3 Davg 11.24±0.00 25.23±0.06 11.24±0.00 18.76±0.02 13.26±0.01 11.82±0.03 6.41±0.00 13.29±0.17 12.45±0.18 6.41±0.00 3 3 3 3 3 Davg 11.24±0.00 25.23±0.06 11.24±0.00 18.76±0.02 13.26±0.01 11.82±0.03 6.41±0.00 13.29±0.17 12.45±0.18 6.41±0.00 0.74
mAP 100.00 63.86 100.00 79.05 99.54 98.71 100.00 99.54 97.70 100.00 mAP 100.00 63.86 100.00 79.05 99.54 98.71 100.00 99.54 97.70 100.00 0.44
TREE (cid:5) GRIDS (775, 1270) TREE (cid:5) GRIDS (775, 1270) 1.00
GRID (cid:5) TREES (775, 790) GRID (cid:5) TREES (775,790) 0.97
Davg 5.11±0.05 14.12±0.45 2.53±0.07 1.32±0.08 1.82±0.07 13.01±0.64 1.43±0.01 4.71±0.15 11.33±0.10 1.51±0.06 Davg 5.11±0.05 14.12±0.45 2.53±0.07 1.32±0.08 1.82±0.07 13.01±0.64 1.43±0.01 4.71±0.15 11.33±0.10 1.51±0.06 0.20
mAP 22.24 44.06 58.86 72.62 64.52 55.89 65.90 65.04 65.07 71.07 mAP 22.24 44.06 58.86 72.62 64.52 55.89 65.90 65.04 65.07 71.07 0.44
Davg 5.48±0.03 14.76±0.23 2.38±0.04 3.10±0.62 2.27±0.18 11.26±0.59 1.45±0.05 5.68±0.37 10.39±0.15 1.51±0.00 Davg 5.48±0.03 14.76±0.23 2.38±0.04 3.10±0.62 2.27±0.18 11.26±0.59 1.45±0.05 5.68±0.37 10.39±0.15 1.51±0.00 0.20
mAP 21.84 31.96 97.56 86.40 79.10 68.30 81.25 89.19 79.43 83.64 mAP 21.84 31.96 97.56 86.40 79.10 68.30 81.25 89.19 79.43 83.64 0.44
Table 14. Results for synthetic datasets. 表14。 合成データセットの結果。 0.76
All models have same number of free parameters. すべてのモデルは、同じ数の自由パラメータを持つ。 0.70
Lower Davg is better. 下部davgの方が良いです。 0.62
Higher mAP is better. より高いmAPの方がよい。 0.67
                                                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。