論文の概要、ライセンス

# (参考訳) 関係および時間曲率を持つ双曲的時間知識グラフ埋め込み [全文訳有]

Hyperbolic Temporal Knowledge Graph Embeddings with Relational and Time Curvatures ( http://arxiv.org/abs/2106.04311v1 )

ライセンス: CC BY 4.0
Sebastien Montella, Lina Rojas-Barahona, Johannes Heinecke(参考訳) 知識グラフ(KG)の完成は、リンク予測(LP)タスクのために提案された膨大な数のモデルで過度に研究されている。 このようなモデルの主な制限は、時間に対する感度である。 実際、記憶された事実の時間的側面はしばしば無視される。 この目的のために、KGを完成させるためのパラメータとして時間を考える研究がますます増えている。 本稿では, 負のサンプル数を増やすことによって, 最近のatthモデルが時間的kgs (tkgs) の最先端技術よりも, 競争的, またはさらに優れた性能が得られることを示す。 我々はさらに、リーマン多様体の曲率を関係と時間の両方の積として定義する atth モデルの時間認識拡張である hercules を提案する。 実験の結果,HerculesとAttHはICEWS04およびICEWS05-15データセット上で,競合的あるいは新しい最先端のパフォーマンスを実現していることがわかった。 したがって、TKG表現を学習する際には、時間によってパフォーマンスが本当に向上するかどうかを認識する必要がある。

Knowledge Graph (KG) completion has been excessively studied with a massive number of models proposed for the Link Prediction (LP) task. The main limitation of such models is their insensitivity to time. Indeed, the temporal aspect of stored facts is often ignored. To this end, more and more works consider time as a parameter to complete KGs. In this paper, we first demonstrate that, by simply increasing the number of negative samples, the recent AttH model can achieve competitive or even better performance than the state-of-the-art on Temporal KGs (TKGs), albeit its nontemporality. We further propose Hercules, a time-aware extension of AttH model, which defines the curvature of a Riemannian manifold as the product of both relation and time. Our experiments show that both Hercules and AttH achieve competitive or new state-of-the-art performances on ICEWS04 and ICEWS05-15 datasets. Therefore, one should raise awareness when learning TKGs representations to identify whether time truly boosts performances.
公開日: Tue, 8 Jun 2021 13:13:43 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Hyperbolic Temporal Knowledge Graph Embeddings with Relational and リレーショナルとリレーショナルによる双曲的時間知識グラフ埋め込み 0.56
Time Curvatures Sebastien Montella Orange Labs, Lannion 時間曲率 Sebastien Montella Orange Labs, Lannion 0.75
Aix Marseille Univ., CNRS, LIS, Marseille, France Aix Marseille Uniiv., CNRS, LIS, Marseille, France 0.81
sebastien.montella@o range.com sebastien.montella@o range.com 0.59
Lina Rojas-Barahona Orange Labs, Lannion Lina Rojas-Barahona Orange Labs, Lannion 0.92
Johannes Heinecke Orange Labs, Lannion Johannes Heinecke Orange Labs, Lannion 0.85
{linamaria.rojasbarah ona, johannes.heinecke}@orange.com linamaria.rojasbarah ona, johannes.heinecke}@orange.com 0.69
1 2 0 2 n u J 1 2 0 2 n u J 0.85
8 ] L C . s c [ 8 ]LC。 sc [ 0.60
1 v 1 1 3 4 0 1 v 1 1 3 4 0 0.85
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Abstract Knowledge Graph (KG) completion has been excessively studied with a massive number of models proposed for the Link Prediction (LP) task. 概要 知識グラフ(KG)の完成は、リンク予測(LP)タスクのために提案された膨大な数のモデルで過度に研究されている。 0.59
The main limitation of such models is their insensitivity to time. このようなモデルの主な制限は、時間に対する感度である。 0.75
Indeed, the temporal aspect of stored facts is often ignored. 実際、記憶された事実の時間的側面はしばしば無視される。 0.69
To this end, more and more works consider time as a parameter to complete KGs. この目的のために、KGを完成させるためのパラメータとして時間を考える研究がますます増えている。 0.45
In this paper, we first demonstrate that, by simply increasing the number of negative samples, the recent ATTH model can achieve competitive or even better performance than the state-of-the-art on Temporal KGs (TKGs), albeit its nontemporality. 本稿では, 正のサンプル数を増やすことで, 最近のATTHモデルは, 非時間性にもかかわらず, 時間的KG(TKG)の最先端技術よりも競争力や性能を向上できることを示した。 0.83
We further propose HERCULES, a time-aware extension of ATTH model, which defines the curvature of a Riemannian manifold as the product of both relation and time. さらに、関係と時間の両方の積としてリーマン多様体の曲率を定義するATTHモデルの時間対応拡張であるHERCULESを提案する。 0.75
Our experiments show that both HERCULES and ATTH achieve competitive or new state-of-the-art performances on ICEWS04 and ICEWS05-15 datasets. 実験の結果, HERCULESとATTHは, ICEWS04とICEWS05-15のデータセット上で, 競合的, あるいは新しい最先端のパフォーマンスを達成できた。 0.54
Therefore, one should raise awareness when learning TKGs representations to identify whether time truly boosts performances. したがって、TKG表現を学習する際には、時間によってパフォーマンスが本当に向上するかどうかを認識する必要がある。 0.49
Introduction 1 The prevalent manner to store factual information is the (cid:104)s, p, o(cid:105) triple data structure where s, p and o stand for the subject, predicate and object respectively. はじめに 1 事実情報を格納する一般的な方法は、(cid:104)s、p、o(cid:105)三重データ構造であり、s、p、oはそれぞれ対象、述語、および対象を表す。 0.63
An entity denotes whether a subject or an object while a relation denote a predicate that links two entities. エンティティは対象かオブジェクトかを表すが、関係は2つのエンティティをリンクする述語を表す。 0.77
A collection of triples defines a Knowledge Graph (KG) noted G(E,R) with E the set of entities, i.e. トリプルの集合は知識グラフ (KG) で表されるG(E,R) と E を実体の集合、すなわち集合を定義する。 0.81
subjects and objects, corresponding to the nodes in the graph and R the set of predicates corresponding to directed edges. 対象と対象はグラフのノードに対応し、rは有向エッジに対応する述語の集合である。 0.70
Shedding light on the type of connections between entities, KGs are powerful to work with for numer- エンティティ間の接続のタイプに光を当てて、kgs は numer のために働くのに強力である 0.68
ous downstream tasks such as question-answering (Bordes et al , 2014; Hao et al , 2017; Saxena et al , 2020), recommendation system (Yu et al , 2014; Zhang et al , 2016; Zhou et al , 2017), information retrieval (Lao and Cohen, 2010; Rockt¨aschel et al , 2015; Xiong et al , 2017), or reasoning (Xian et al , 2019; Chen et al , 2020). 質問回答(Bordes et al , 2014; Hao et al , 2017; Saxena et al , 2020)、レコメンデーションシステム(Yu et al , 2014; Zhang et al , 2016; Zhou et al , 2017)、情報検索(Lao and Cohen, 2010; Rockt saschel et al , 2015; Xiong et al , 2017)、推論(Xian et al , 2019; Chen et al , 2020)など、さまざまなダウンストリームタスクが提供されている。 0.83
However, KGs are sometimes incomplete and part of the knowledge is missing. しかし、KGは時に不完全であり、知識の一部が欠落している。 0.59
A major concern was therefore raised to predict missing connections between entities, stimulating research on the Link Prediction (LP) task. そのため、エンティティ間の欠落を予測し、リンク予測(LP)タスクの研究を刺激する大きな懸念が提起された。 0.67
Intuition is to map each entity and relation into a vector space to learn low-dimensional embeddings such that valid triples maximize a defined scoring function and that fallacious triples minimize it. 直観は、各実体と関係をベクトル空間に写像して、有効三重項が定義されたスコアリング関数を最大化し、誤三重項が最小化するような低次元埋め込みを学ぶことである。 0.62
An approach is efficient if it can model multiple relational patterns. 複数の関係パターンをモデル化できるアプローチは効率的です。 0.84
Some predicates are symmetric (e g marriedTo), asymmetric (e g fatherOf ), an inversion of another relation (e g fatherOf and childOf ) or a composition (e g grandfatherOf ). いくつかの述語は対称(e g marriedTo)、非対称(e g fatherOf )、別の関係(e g fatherOf と childOf )、あるいは構成(e g grandfatherOf )である。 0.73
Distinct strategies were introduced by explicitly model those patterns (Bordes et al , 2013; Yang et al , 2015; Trouillon et al , 2016; Sun et al , 2019). これらのパターンを明示的にモデル化することで異なる戦略が導入された(bordes et al , 2013; yang et al , 2015; trouillon et al , 2016; sun et al , 2019)。 0.79
However, hierarchical relations have remained challenging to model in Euclidean space. しかし、階層関係はユークリッド空間のモデルに挑戦的なままである。 0.65
As demonstrated in Sarkar (2011), tree structures are better embedded in hyperbolic spaces. Sarkar (2011) で示されているように、木構造は双曲空間にもっとうまく埋め込まれている。 0.55
Thus, hyperbolic geometry reveals to be a strong asset to capture hierarchical patterns. したがって、双曲幾何学は階層的パターンを捉えるための強力な資産であることが分かる。 0.52
Nevertheless, the aforementioned approaches represent embeddings as invariant to time. それでも、前述のアプローチは、埋め込みを時間に不変であることを示す。 0.48
For example, while writing this article, the triple (cid:104)Donald Trump, presidentOf, U.S.(cid:105) is correct but will be erroneous at reading time due to the meantime United States presidential inauguration of Joe Biden. 例えば、この記事を書く間、donald trump, presidentof, u.s.(cid:105) は正しいが、ジョー・バイデンのアメリカ合衆国大統領就任が間近であるため、読み上げ時間には誤りである。 0.78
To address this issue, recent works considered using quadruplet written as (cid:104)s, p, o, t(cid:105) by adding a time parameter t. Then, we note a Tem- この問題に対処するため、最近の作業では、時間パラメータ t を追加することで、 (cid:104)s, p, o, t(cid:105) と書かれる四重項を考慮に入れている。
訳抜け防止モード: この問題に対処するためです 四重項を (cid:104)s, p, 時間パラメータ t を追加することで o, t(cid:105 ) を得る。 tem (複数形 tems)
0.72
英語(論文から抽出)日本語訳スコア
poral Knowledge Graph (TKG) as G(E,R,T ) with T the set of timestamps. poral Knowledge Graph (TKG) は T をタイムスタンプの集合とする G(E,R,T) である。 0.89
Stating a precise time can be advantageous for diverse applications (disambiguation, reasoning, natural language generation, etc). 正確な時間をスタンディングすることは、さまざまなアプリケーション(曖昧さ、推論、自然言語生成など)に有利です。 0.76
Recent works toward TKG representations are essentially extensions of existing timeless KG embeddings that incorporate the time parameter in the computation of their scoring function. tkg表現に対する最近の研究は、スコアリング関数の計算に時間パラメータを組み込んだ既存の時間のないkg埋め込みの拡張である。 0.73
Similar to our work, Han et al (2020) developed DYERNIE, an hyperbolic-based model inspired from MURP (Balaˇzevi´c et al , 2019a). 我々の研究と同様に、Han et al (2020) は MURP (Bala'zevi ́c et al , 2019a) からインスパイアされた双曲型モデル DYERNIE を開発した。 0.63
DYERNIE uses a product of manifolds and adds a (learned) Euclidean time-varying representation for each entity such that each entity further possesses an entityspecific velocity vector along with a static (i.e. DYERNIE は多様体の積を使用し、各実体に対して(学習された)ユークリッド時変表現を加えて、各実体が静的(すなわち)とともにエンティティ固有の速度ベクトルを持つようにする。 0.63
timeunaware) embedding. タイムナウェア)埋め込み。 0.67
In this paper, we first demonstrate that an optimized number of negative samples enables the ATTH model (Chami et al , 2020) to reach competitive or new state-of-the-art performance on temporal link prediction while being unaware of the temporal aspect. 本稿では,まず,最適化された負のサンプル数によって,atthモデル(chami et al , 2020)が時間的側面を知らずに,時間的リンク予測の競争力や新たな最先端性能に到達できることを実証する。 0.76
We further introduce HERCULES1, an extension of ATTH. ATTHの拡張であるHERCULES1についても紹介する。 0.70
HERCULES differs from DYERNIE in that: ヘラクレスはDyernieとは異なる。 0.39
• Following Chami et al (2020), we utilize Givens transformations and hyperbolic attention to model different relation patterns. • Chami et al (2020) に続いて、異なる関係パターンをモデル化するために有意変換と双曲的注意を利用する。 0.74
• A single manifold is used. • 1つの多様体が用いられる。 0.60
• Curvature of the manifold is defined as the product of both relation and time parameters. • 多様体の曲率は関係と時間パラメータの両方の積として定義される。 0.80
To the best of our knowledge, this is the first attempt to leverage the curvature of a manifold to coerce time-aware representation. 我々の知る限りでは、これは多様体の曲率を利用して時間認識表現を強めようとする最初の試みである。 0.62
We also provide an ablation study of distinct curvature definitions to investigate the surprising yet compelling results of ATTH over time-aware models. また、時間認識モデルによるATTHの驚くべき結果について、異なる曲率定義のアブレーション研究を行った。 0.66
2 Related Work In this section, we present existing methods on both KG and TKG vector representation. 2 関連作業 本稿では,KGベクトル表現とTKGベクトル表現の両方に既存の手法を提案する。 0.73
2.1 Timeless Graph Embeddings Previous works on KG completion essentially focused on undated facts with the (cid:104)s, p, o(cid:105) formalism. 2.1 時間のないグラフ埋め込み KG の完備化に関する以前の研究は、本質的には (cid:104)s, p, o(cid:105) 形式主義による未定事実に焦点を当てていた。 0.49
Bordes et al (2013) initially proposed the TRANSE model considering the relation p as a translation Bordes et al (2013) は最初、関係 p を翻訳として考える TransE モデルを提案した。 0.72
1Hyperbolic Representation with TimE and Relational TimE とリレーショナルを用いた 1Hyperbolic Representation 0.72
CUrvatures for TemporaL KnowledgE GraphS TemporaL KnowledgE GraphSのためのcurrvatures 0.80
between entities in the embedding space. 埋め込み空間内のエンティティ間の関係。 0.67
Several variants were then designed. その後、いくつかの派生型が設計された。 0.35
TRANSH (Wang et al , 2014) adds an intermediate projection onto a relation-specific hyper-plane while TRANSR (Lin et al , 2015) maps entities to a relation-specific space of lower rank. transh (wang et al , 2014) は関係特異的な超平面に中間射影を追加し、transr (lin et al , 2015) はエンティティを下位の関係特異的空間にマッピングする。 0.73
However, translation-based approaches cannot model symmetric relations. しかし、翻訳に基づくアプローチは対称関係をモデル化できない。 0.66
DISTMULT (Yang et al , 2015) solves this issue by learning a bilinear objective that attributes same scores to (cid:104)s, p, o(cid:105) and (cid:104)o, p, s(cid:105) triples. DISTMULT (Yang et al , 2015) は、同じスコアを (cid:104)s, p, o(cid:105) と (cid:104)o, p, s(cid:105) とみなす双線型目標を学習することでこの問題を解決する。 0.77
COMPLEX Trouillon et al (2016) subsequently came up with complex embeddings. COMPLEX Trouillon et al (2016) は後に複雑な埋め込みを考案した。 0.74
Tensor factorization techniques were also proposed. テンソル因子化技術も提案された。 0.55
RESCAL (Nickel and Tresp, 2013) applies a three-way tensor factorization. RESCAL (Nickel and Tresp, 2013) は三方向テンソル分解を適用する。 0.71
TUCKER (Balaˇzevi´c et al , 2019b) uses Tucker decomposition and demonstrates that TUCKER is a generalization of previous linear models. TUCKER (Bala'zevi ́c et al , 2019b) はTucker分解を使い、TUCKER が以前の線形モデルの一般化であることを示す。 0.64
More recently, ROTATE (Sun et al , 2019) considered relations as rotations in a complex vector space which can represent symmetric relations as a rotation of π. QUATE (Zhang et al , 2019) further generalizes rotations using quaternions, known as hypercomplex numbers (C ⊂ H). より最近では、ローテーション(sun et al , 2019)は、π の回転として対称関係を表現できる複素ベクトル空間における回転として関係を考察している。
訳抜け防止モード: 最近では、ROTATE (Sun et al, 2019 ) は複素ベクトル空間における関係を回転と見なしている。 対称関係をπの回転として表すことができる。 Quate (Zhang et al, 2019 ) は四元数を用いた回転をさらに一般化する。 は超複素数 (C , H ) として知られる。
0.69
A key advantage of quaternions is its non-commutative property allowing more flexibility to model patterns. 四元数の主な利点は、非可換性によってパターンをモデル化する柔軟性が増すことである。 0.57
Nonetheless, memory-wise, QUATE requires 4 embeddings for each entity and relation. それでもメモリに関しては、quateはエンティティとリレーションごとに4つの組込みを必要とする。 0.52
To this extent, hyperbolic geometry provides an outstanding framework to produce shallow embeddings with striking expressiveness (Sarkar, 2011; Nickel and Kiela, 2017). この点において、双曲幾何学は、顕著な表現力を持つ浅い埋め込みを生成する優れた枠組みを提供する(Sarkar, 2011; Nickel and Kiela, 2017)。 0.65
Both MURP (Balaˇzevi´c et al , 2019a) and ATTH (Chami et al , 2020) learn hyperbolic embeddings on a n-dimensional Poincar´e ball. MURP (Bala'zevi ́c et al , 2019a) と ATTH (Chami et al , 2020) はどちらも n-次元ポインカー球上の双曲埋め込みを学習する。 0.70
Different to MURP, ATTH uses a trainable curvature for each relation. MURPとは異なり、ATTHは各関係に対してトレーニング可能な曲率を使用する。 0.55
Indeed, Chami et al (2020) have shown that fixing the curvature of the manifold can jeopardize the quality of the returned embeddings. 実際、chami et al (2020) は多様体の曲率の修正は返却された埋め込みの品質を損なうことを示した。 0.56
Therefore, defining a parametric curvature for a given relation helps to learn the best underlying geometry. したがって、与えられた関係に対するパラメトリック曲率を定義することは、基礎となる幾何学を学ぶのに役立つ。 0.58
2.2 Time-Aware Graph Embeddings The above-mentioned techniques nevertheless disregard the temporal aspect. 2.2 Time-Aware Graph Embeddings 上記のテクニックは時間的側面を無視しています。 0.62
Indeed, lets consider the two following quadruplets (cid:104)Barack Obama, visits, France, 2009-03-11(cid:105) and (cid:104)Barack Obama, visits, France, 2014-04-21(cid:105). 実際、以下の2つの四つ組(cid:104)Barack Obama, visits, France, 2009-03-11(cid:105)と (cid:104)Barack Obama, visits, France, 2014-04-21(cid:105)を考える。 0.72
Non-temporal models would exhibit the same score for both facts. 非時間モデルは両方の事実に対して同じスコアを示す。 0.72
However, the second quadruplet is invalid2 and しかし、第2の四重項は無効であり、 0.57
2In fact, Barack Obama visited Japan on April 21, 2014, 2014年4月21日、バラク・オバマが日本を訪れた。 0.66
not France フランスではなく 0.62
英語(論文から抽出)日本語訳スコア
should therefore get a lower score. それゆえ低いスコアを得るべきである。 0.60
For this reason, several works contributed to obtain timeaware embeddings. このため、いくつかの研究がタイムアウェアの埋め込みに寄与した。 0.50
Thanks to the existing advancements on graph representations, many strategies are straightforward extensions of static approaches. グラフ表現の既存の進歩のおかげで、多くの戦略は静的アプローチの直接的な拡張である。 0.72
TTRANSE (Leblay and Chekol, 2018) alters the scoring function of TRANSE to encompass timerelated operations such as time translations. TTRANSE (Leblay and Chekol, 2018) は、TransEのスコアリング機能を時間翻訳などの時間的操作を含むように変更した。 0.69
Likewise, TA-TRANSE (Garc´ıa-Dur´an et al , 2018) uses LSTMs (Hochreiter and Schmidhuber, 1997) to encode a temporal predicate which carries the time feature. 同様に、TA-TRANSE (Garc ́ıa-Dur ́an et al , 2018) は LSTM (Hochreiter and Schmidhuber, 1997) を用いて、時間的特徴を持つ時間的述語を符号化している。 0.70
By analogy with TRANSH, HYTE (Dasgupta et al , 2018) learns time-specific hyperplanes on which both entities and relations are projected. TransHと類似して、HYTE (Dasgupta et al , 2018) は、実体と関係の両方が投影される時間特異的超平面を学習する。 0.59
Then, another family of temporal extensions are derived from DISTMULT such as KNOWEVOLVE (Trivedi et al , 2017), TA-DISTMULT (Garc´ıa-Dur´an et al , 2018), or TDISTMULT (Ma et al , 2019) that also utilize a bilinear scoring function. その後、別の時間拡張系は、knowevolve (trivedi et al , 2017)、ta-distmult (garc ́ıa-dur ́an et al , 2018)、tdistmult (ma et al , 2019)といった双線形スコアリング関数を利用したディストマルトから派生する。
訳抜け防止モード: その後、KNOWEVOLVE (Trivedi et al, 2017) などのdisTMULTから時間拡張の別の家系が派生した。 TA - DISTMULT (Garc ́ıa - Dur ́an et al, 2018) TDISTMULT (Ma et al, 2019) も双線形スコアリング機能を利用している。
0.67
DE-SIMPLE (Goel et al , 2020) provides diachronic entity embeddings inspired from diachronic word embeddings (Hamilton et al , 2016). DE-SIMPLE (Goel et al , 2020)は、ダイアクロニック単語の埋め込み(Hamilton et al , 2016)にインスパイアされたダイアクロニックエンティティの埋め込みを提供する。 0.60
Recently, ATISE (Xu et al , 2019) embeds entities and relations as a multi-dimensional Gaussian distributions which are time-sensitive. atise (xu et al , 2019) は、時間に敏感な多次元ガウス分布としてエンティティとリレーションを埋め込んでいる。 0.65
An advantage of ATISE is its ability to represent time uncertainty as the covariance of the Gaussian distributions. ATISEの利点は、ガウス分布の共分散として時間不確実性を表現する能力である。 0.75
TERO (Xu et al , 2020b) combines ideas from TRANSE and ROTATE. TERO (Xu et al , 2020b) は TransE と ROTATE のアイデアを組み合わせている。 0.73
It defines relations as translations and timestamps as rotations. 関係を翻訳、タイムスタンプを回転として定義する。 0.60
As far as we are aware, DYERNIE (Han et al , 2020) is the first work to contribute to hyperbolic embeddings for TKG. 私たちが知っている限りでは、DYERNIE(Han et al , 2020)はTKGの双曲的埋め込みに貢献する最初の試みである。 0.65
It achieves state-of-the-art performances on the benchmark datasets ICEWS14 and ICEWS05-15. ベンチマークデータセットICEWS14とICEWS05-15の最先端のパフォーマンスを実現している。 0.57
Time is defined as a translation on a product of manifolds with trainable curvatures using a velocity vector for each entity. 時間は、各実体の速度ベクトルを用いて訓練可能な曲率を持つ多様体の積の変換として定義される。 0.66
In our work, we demonstrate that using a single manifold with learnable relational and time curvatures is sufficient to reach competitive or new state-of-the-art performances. 本研究では,学習可能なリレーショナルおよび時間曲率を持つ1つの多様体を用いることで,競争力や新たな最先端性能が得られることを示す。 0.53
3 Problem Definition Lets consider a valid quadruplet (cid:104)s, p, o, t(cid:105) ∈ S ⊂ E × R × E × T , with E, R and T the sets of entities, relations and timestamps respectively and S the set of correct facts. 3 問題定義 正則四重対 (cid:104)s, p, o, t(cid:105) ∈ S は E × R × E × T であり、E, R と T はそれぞれ実体、関係、タイムスタンプの集合であり、S は正しい事実の集合である。 0.81
A scoring function f : E × R × E × T → R is defined such that f (s, p, o, t) is maximized for any quadruplet ∈ S, and minimized for corrupted quadruplet ( /∈ S). スコア関数 f : E × R × E × T → R は f (s, p, o, t) が任意の四重極 S に対して最大化され、崩壊した四重極 S に対して最小化されるように定義される。 0.76
Throughout the optimization of the foregoing 先行きの最適化を通じて 0.77
constraint, representations of entities, relations and times are learned accordingly. 制約、実体の表現、関係、時間の順に学習される。 0.54
The resulting embeddings should then capture the multi-relational graph structure. 結果として得られる埋め込みは、マルチリレーショナルグラフ構造をキャプチャする。 0.54
Thus, f is gauging the probability that an entity s is connected to an entity o by the relation p at time t. したがって f は、時刻 t における関係 p によって実体 s が実体 o に連結される確率を測っている。 0.79
4 Hyperbolic Geometry Hyperbolic geometry belongs to non-Euclidean geometry. 4 双曲幾何学 双曲幾何学は非ユークリッド幾何学に属する。 0.59
In contrast to Euclidean geometry relying on Euclid’s axioms (Heath and Euclid, 1956), nonEuclidean geometry rejects the fifth axiom known as the parallel postulate. ユークリッドの公理(heath and euclid, 1956)に依存するユークリッド幾何学とは対照的に、非ユークリッド幾何学は平行ポピュレートとして知られる5番目の公理を拒絶する。 0.65
It states that given a point x and a line l1, there exists a unique line l2 parallel to l1 passing through x. 点 x と直線 l1 が与えられたとき、x を通る l1 に平行な一意な直線 l2 が存在する。 0.73
This is only possible due to a (constant) zero curvature of the space. これは空間の(連続した)零曲率のためにのみ可能である。 0.83
The curvature defines how much the geometry differs from being flat. 曲線は、幾何が平坦であることとどの程度異なるかを定義する。 0.62
The higher the absolute curvature, the curvier. 絶対曲率が高いほど 曲率が高くなります 0.55
Euclidean space has a zero curvature hence called flat space. ユークリッド空間は、したがって平坦空間と呼ばれるゼロ曲率を持つ。 0.66
When represented in an Euclidean space, straight lines become curved, termed as geodesics (Fig. ユークリッド空間で表されるとき、直線は湾曲し、測地学と呼ばれる(図)。 0.65
1). T c x Bn,c 1). Tc x Bn,c 0.76
logc x(v) x logc x(v) x 0.85
O u v expc お うーん v expc 0.72
x(u) Bn,c Figure 1: Illustration of the exponential and logarithmic maps between the Poincar´e ball Bn,c and the tangent space T c x(u) Bn,c 図1:ポアンカー ́e 球 Bn,c と接空間 Tc の間の指数写像と対数写像の図形化 0.79
Bn,c. x Hyperbolic geometry comes with a constant negative curvature. Bn,c。 x 双曲幾何学は一定の負の曲率を持つ。 0.74
In our study, as Nickel and Kiela (2017); Han et al (2020); Chami et al (2020), we B) which make use of the Poincar´e ball (Bn,c, g is a n-dimensional Riemannian manifold Bn, c = {x ∈ Rn : (cid:107)x(cid:107)2 < 1 c} of constant curvature −c (c > 0) equipped with Riemannian metric g B and where (cid:107). 本研究では、nigan and kiela (2017), han et al (2020), chami et al (2020), we b) として、ポアンカーの球(bn,c, g は n-次元リーマン多様体 bn, c = {x ∈ rn : (cid:107)x(cid:107)2 < 1 c} を用いて、リーマン計量 g b と (cid:107) を備えた定数曲率 −c (c > 0) の定曲率 −c (c > 0) を成す。 0.78
(cid:107) denotes the L2 norm. (cid:107)は、L2ノルムを表す。 0.58
The metric B gives information about how distances tensor g should be computed on the manifold and is dex)2In with the conformal factor fined as g 1−c(cid:107)x(cid:107) 2 and In the identity matrix of size λc x = n × n. We write T c Bn,c the n-dimensional tan- 計量 b は、多様体上でテンソル g がどのように計算され、dex)2in が g 1−c(cid:107)x(cid:107) 2 に微細化され、大きさ λc x = n × n の等式行列として与えられるかに関する情報を与える。 0.74
= (λc B 2 x =(λc) B 2 x 0.82
英語(論文から抽出)日本語訳スコア
x gent space at x ∈ Bn,c. x x ∈ Bn,c におけるゲント空間。 0.81
At the difference of Bn,c, T c Bn,c locally follows an Euclidean geometry. Bn,c の差で、Tc Bn,c は局所的にユークリッド幾何学に従う。 0.63
As illustrated in Fig 1, we can project v ∈ Bn,c on T c Bn,c at x via the logarithmic map. 図1に示すように、対数写像を通して x 上の Tc Bn,c 上の v ∈ Bn,c を射影することができる。
訳抜け防止モード: fig 1 で示されるように、v ∈ bn を射影することができる。 c on t c bn, c at x via the logarithmic map 。
0.79
Inversely, we can map a point u ∈ T c Bn,c on Bn,c at x via the exponential map. 逆に、指数写像を通して x 上の Bn,c 上の点 u ∈ T c Bn,c を写像することができる。 0.70
A closed-form of those mappings exist when x corresponds to the origin (Eqs. これらの写像の閉形式は x が原点 (Eqs) に対応するときに存在する。 0.62
1 and 2). x x 1および2。 x x 0.76
expc 0(u) = tanh( expc 0(u) = tanh() 0.87
√ c(cid:107)u(cid:107) ) √ c(cid:107)u(cid:107) 0.87
u√ c(cid:107)u(cid:107) u) c(cid:107)u(cid:107) 0.69
(1) √ 0(v) = tanh−1( (1) 0(v) = tanh−1() 0.84
c(cid:107)v(cid:107) ) c(cid:107)v(cid:107) 0.89
v√ c(cid:107)v(cid:107) c(cid:107)v(cid:107) 0.70
x logc (2) Contrary to T c Bn,c, the Euclidean addition on the hyperbolic manifold does not hold. x logc 2) t c bn,c に対して、双曲多様体上のユークリッド加法は成立しない。 0.74
Alternately, we use the M¨obius addition (Vermeer, 2005; Ganea et al , 2018) satisfying the boundaries constraints of the manifold. 代わりに、多様体の境界制約を満たす M シュビウス加法(Vermeer, 2005; Ganea et al , 2018)を用いる。
訳抜け防止モード: 代替として、M sobius add(Vermeer, 2005; Ganea et al, 2018)を用いる。 多様体の境界制約を満たすこと。
0.71
It is however non-commutative and non-associative. しかし、非可換かつ非可換である。 0.41
The closed-form is presented in Eq 3. 閉形式は Eq 3 で示される。 0.81
x ⊕c y = (1 − 2cxT y − c(cid:107)y(cid:107) 2)x + (1 + c(cid:107)x(cid:107) 2)y x y = (1 − 2cxT y − c(cid:107)y(cid:107) 2)x + (1 + c(cid:107)x(cid:107) 2)y 0.96
1 − 2cxT y + c2(cid:107)y(cid:107 )2(cid:107)x(cid:107 )2 1 − 2cxT y + c2(cid:107)y(cid:107 )2(cid:107)x(cid:107 )2 0.82
(3) The distance between two points x and y on Bn,c is the hyperbolic distance dBn,c(x, y) defined as: (3) bn,c 上の二つの点 x と y の間の距離は双曲距離 dbn,c(x, y) である。 0.82
dBn,c(x, y) = dBn,c(x, y) = 0.85
2√ c tanh−1( 2~c tanh−1( 0.57
√ c(cid:107)−x ⊕c y(cid:107)) √ c(cid:107)−x−c y(cid:107) 0.83
(4) 5 From ATTH to HERCULES Given a quadruplet, (cid:104)s, p, o, t(cid:105), we note eH p and o the hyperbolic embeddings of the subject, predeH icate and object respectively.3 ATTH uses relationspecific embeddings, rotations, reflections and curvatures. (4) 5 ATTH から HERCULES へ 四重項 (cid:104)s, p, o, t(cid:105) を付与し, eH p と o をそれぞれ対象,predeH および対象の双曲的埋め込みに留意する。3 ATTH は,関係特異的な埋め込み,回転,反射及び曲率を使用する。 0.81
The curvature is defined as depending on the corresponding relation p involved. 曲率は、関連する関係pに応じて定義される。 0.70
Precisely, a relation p is attributed with an individual parametric curvature cp. 正確には、関係 p は個々のパラメトリック曲率 cp によって特徴づけられる。 0.70
The curvature cp is defined in Eq 5 as: 曲率 cp は Eq 5 で次のように定義される。 0.73
s , rH cp = σ(µp) s, rH cp = σ(μp) 0.91
(5) where µp is a trainable parameter ∈ R and σ is a smooth approximation of the ReLU activation function defined in [0, +∞]. (5) μp は訓練可能なパラメータ ∈ R であり、σ は [0, +∞] で定義される ReLU 活性化関数の滑らかな近似である。 0.88
With such approach, the geometry of the manifold is learned, thus modified for a particular predicate. そのようなアプローチで、多様体の幾何学が学習され、したがって特定の述語に対して修正される。 0.57
The curvature dictates how the manifold is shaped. 曲率は多様体の形状を決定する。 0.62
Changing the curvature of the manifold implies changing the positions 多様体の曲率を変えることは位置を変えることを意味する 0.61
3Since ATTH is not considering time, the parameter t is 3 ATTH は時間を考慮していないので、パラメータ t は 0.75
not used. of projected points. 使われてない 投影された点です 0.59
This means that for distinct relations, the same entity will have different positions because of the different resulting geometries for each relation. これは、異なる関係について、同じ実体はそれぞれの関係に対する異なる結果のジオメトリーのために異なる位置を持つことを意味する。 0.67
For example, lets consider the triples t1 := (cid:104)Barack Obama, visit, France(cid:105) and t2 := (cid:104)Barack Obama, cooperate, France(cid:105). 例えば、t1 := (cid:104)Barack Obama, visit, France (cid:105) and t2 := (cid:104)Barack Obama, Cooper, France (cid:105)を考える。 0.90
The Euclidean representations of entities Barack Obama and France from both facts will be projected onto the riemannian manifold. 二つの事実からバラク・オバマとフランスのユークリッド表現はリーマン多様体に射影される。 0.48
However, the structure (i.e. しかし、その構造(すなわち)。 0.81
curvature) of the manifold changes as a function of the relation of each fact (i.e. 多様体の曲率)は各事実(すなわち)の関係の関数として変化する。 0.79
’visit’ and ’cooperate’). visit’ と ’cooperate’)。 0.59
Therefore, the resulting hyperbolic embbeding of Barack Obama of t1 will not be the same resulting hyperbolic embedding of Barack Obama in t2. したがって、バラク・オバマのt1の双曲的埋め込みは、バラク・オバマのt2への双曲的埋め込みと同じものではない。 0.48
By analogy, the same holds for entity France. 例によって、フランスの実体も同様である。 0.59
In order to learn rotations and reflections, ATTH uses 2 × 2 Givens transformations matrices. 回転と反射を学習するために、ATTHは 2 × 2 givens 変換を使用する。 0.79
Those transformations conserve relative distances in hyperbolic space and can therefore directly be applied to hyperbolic embeddings (isometries). これらの変換は双曲空間の相対距離を保存し、したがって双曲埋め込み(異方体)に直接適用することができる。 0.57
We note W rot the block-diagonal matrices Θp where each element on their diagonals is given by G+(θp,i) and G−(φp,i) respectively, with i the ith element of the diagonal (Eqs. w はブロック対角行列 θp を回転させ、その対角線上の各元はそれぞれ g+(θp,i) と g−( φp,i) で与えられ、i は対角線 (eqs) の ith 要素となる。 0.67
6 and 7). and W ref Φp 6および7)。 そして w ref φp 0.76
sin(θp,i) sin (複数形 sins) 0.67
(cid:20)cos(θp,i) − sin(θp,i) (cid:20)cos(φp,i) (cid:20)cos(θp,i) − sin(θp,i) (cid:20)cos(φp,i) 0.93
sin(φp,i) sin(φp,i) − cos(φp,i) sin(φp,i) sin(φp,i) − cos(φp,i) 0.98
cos(θp,i) (cid:21) (cid:21) cos(θp,i) (cid:21)(cid:21) 0.85
(6) (7) G+(θp,i) = (6) (7) G+(θp,i) = 0.88
G−(φp,i) = G−(φp,i) = 0.94
Then, the rotations and reflections are applied only to the subject embedding as describe in Eq 8. そして、回転と反射はeq8に記載されるような被写体にのみ適用される。 0.80
qH rot = W rot qH rot = W rot 0.85
Θp eH s ref = W ref qH Φp ~p eH s ref = W ref qH >p 0.89
eH s (8) and αp qH ref eH s (8) および αp qH ref 0.87
Furthermore, to represent complex relations that can be a mixture of rotation and reflection, ATTH utilizes an hyperbolic attention mechanism. さらに、回転と反射の混合となる複雑な関係を表現するために、ATTHは双曲的注意機構を利用する。 0.71
The attention scores αp are computed in the qH rot tangent space by projecting the hyperbolic rotation embedding qH rot and hyperbolic reflection embedding qH ref with the logarithmic map (Eq. 注目点αpは、対数写像(Eq)にqH refを埋め込み、qH rotを埋め込まれた双曲回転を投影することにより、qH rot tangent空間内で計算される。 0.72
2). More specifically, ATTH implements a tangent space average to implement the typical weighted average as proposed in Liu et al (2019) and Chami et al (2019). 2). より具体的には、atth は liu et al (2019) や chami et al (2019) で提案された典型的な重み付け平均を実装するために接空間平均を実装している。 0.71
Then, the attention vector is mapped back to manifold using the exponential map (Eq. すると、注意ベクトルは指数写像(Eq)を用いて多様体に写像される。 0.62
1). We 1). 私たち 0.75
英語(論文から抽出)日本語訳スコア
have then: 6 Experiments AT T (qH すると 6 実験 AT T (qH) 0.74
rot, qH ref , p) = expcp + αqH rot, qH ref , p) = expcp + αqH 0.90
0 (αqH 0(αqH)であった。 0.38
rot ref 腐る ref (複数形 refs) 0.37
logcp 0 (qH logcp 0 (qH) 0.97
0 (qH ref )) 0(qH ref )。 0.81
rot) logcp 腐った) logcp 0.67
(9) ATTH finally applies a translation of the hyperbolic relation embedding rH p over the resulting attention vector (Eq. (9) ATTH は最終的に、結果の注意ベクトル (Eq) 上に rH p を埋め込んだ双曲関係の変換を適用する。 0.71
9). As mentioned in Chami et al (2020), translations help to move between different levels of the hierarchy. 9). Chami et al (2020)で述べられているように、翻訳は階層の異なるレベルの間を移動するのに役立つ。 0.79
Q(s, p) = AT T (qH Q(s, p) = AT T (qH) 0.91
rot, qH ref , p) ⊕cp rH rot, qH ref , p) >cp rH 0.89
p (10) The scoring function is similar to the one used in Balaˇzevi´c et al (2019a) and Han et al (2020) defined as: s(s, p, o, t) = −dcp(Q(s, p), eH p (10) スコアリング関数は、 s(s, p, o, t) = −dcp(Q(s, p), eH と定義される Bala zevi ́c et al (2019a) と Han et al (2020) で使われるものに似ている。 0.86
o )2 + bs + bo (11) o )2 + bs + bo (11) 0.85
where bs and bo stand for the subject and object biases, respectively. bs と bo はそれぞれ対象と対象のバイアスを表す。 0.58
We then propose HERCULES, a time-aware extension of ATTH. 次に,ATTHの時間認識拡張であるHERCULESを提案する。 0.63
HERCULES redefines the curvature of the manifold as being the product of both relation and time as illustrated in Eq 12: HERCULES は、Eq 12 に示されているように、多様体の曲率を関係と時間の両方の積として再定義する。
訳抜け防止モード: HERCULESは多様体の曲率を再定義する Eq 12で示されるように、関係と時間の両方の積である
0.75
p = σ(µp × τt) ct p = σ(μp × τt) ct 0.98
(12) with τt a learnable parameter ∈ R. A trade-off therefore exists between relation and time. (12) τt が学習可能なパラメータ ∈ r を持つので、関係と時間の間にトレードオフが存在する。 0.66
A low value of either µp or τt will lead to a flatter space while higher values will tend to a more hyperbolic space. μp または τt の値が低いとより平坦な空間となり、より高い値はより双曲的な空間になる傾向がある。 0.73
The main intuition of HERCULES is that both relation and time directly adjust the geometry of the manifold such that the positions of projected entities are relation-and-time-de pendent. HERCULES の主な直観は、関係と時間の両方が、射影された実体の位置が関係と時間に依存しているように多様体の幾何学を直接調整することである。 0.59
This is advantageous in that no additional temporal parameters per entity are needed. これはエンティティごとに追加の時間パラメータは必要ないという点で有利である。 0.69
Since the whole geometry has changed for specific relation and time, all future projections onto that manifold will be aligned to the corresponding relation and timestamp. 幾何全体は特定の関係と時間のために変化したので、その多様体へのすべての将来の射影は対応する関係とタイムスタンプに整列される。 0.66
We investigate different curvature definitions and time translation in our experiments (see Section 6). 実験における異なる曲率の定義と時間変換について検討する(第6節参照)。 0.64
The scoring function of HERCULES remains same as ATTH. HERCULESのスコアリング機能はATTHと同じである。 0.71
When learning hyperbolic parameters, the optimization requires to utilize a Riemannian gradient (Bonnabel, 2013). 双曲パラメータを学ぶとき、最適化はリーマン勾配を利用する必要がある(bonnabel, 2013)。 0.72
However, proven to be challenging, we instead learn all embeddings in the Euclidean space. しかし、困難であることが証明され、代わりにユークリッド空間にすべての埋め込みを学ぶ。 0.61
The embeddings can then be mapped to the manifold using the exponential map (Eq. 埋め込みは指数写像 (Eq) を用いて多様体に写像できる。 0.50
1). This allows the use of standard Euclidean optimization strategies. 1). これにより、標準的なユークリッド最適化戦略が利用できる。 0.73
We outline in this section the experiments and evaluation settings. 本項では実験と評価設定について概説する。 0.75
6.1 Datasets 6.1 データセット 0.53
For fair comparisons, we test our model on same benchamark datasets used in previous works, i.e. 公平な比較のために、以前の作業で使用された同じbensamarkデータセット、すなわち、モデルをテストする。 0.65
ICEWS14 and ICEWS05-15. ICEWS14とICEWS05-15。 0.59
Both datasets were constructed by Garc´ıa-Dur´an et al (2018) using the Integrated Crisis Early Warning System (ICEWS) dataset (Boschee et al , 2018). どちらのデータセットも、Integrated Crisis Early Warning System(ICEWS)データセット(Boschee et al , 2018)を使用してGarc ́ıa-Dur ́an et al (2018)によって構築された。 0.60
ICEWS provides geopolitical information with their corresponding (event) date, e g (cid:104)Barack Obama, visits, France, 2009-03-11(cid:105). ICEWSは、対応する(イベント)日付、eg (cid:104)Barack Obama, visits, France, 2009-03-11 (cid:105) の地政学的情報を提供する。 0.69
More specifically, ICEWS14 includes events that happened in 2014 whereas ICEWS05-15 encompasses facts that appeared between 2005 and 2015. ICEWS05-15は2005年から2015年の間に現れた事実を含んでいる。 0.65
We give the original datasets statistics in Table 2. オリジナルのデータセットの統計を表2に示します。 0.76
To increase the number of samples, for each quadruplet (cid:104)s, p, o, t(cid:105) we add (cid:104)s, p−1, o, t(cid:105), where p−1 is the inverse relation of p. This is a standard data augmentation technique usually used in LP (Balaˇzevi´c et al , 2019a; Goel et al , 2020; Han et al , 2020). サンプル数を増やすために、各四重対 (cid:104)s, p, o, t(cid:105) に対して (cid:104)s, p−1, o, t(cid:105) を加え、p−1 は p の逆関係である。
訳抜け防止モード: サンプル数を増やすために、各四重項(cid:104)について。 p, o, t(cid:105 ) we add (cid:104)s, p−1, o, t(cid:105 ) p−1 は p の逆関係である。これは、通常 LP ( Bala zevi ́c et al, 2019a ; Goel et al, 2020 ; Han et al, 2020 ) で使われる標準データ拡張手法である。
0.82
6.2 Evaluation Protocol & Metrics Given a (golden) test triple (cid:104)s, p, o, t(cid:105), for each entity s(cid:48) ∈ E, we interchange the subject s with s(cid:48) and apply the scoring function f on the resulting query (cid:104)s(cid:48), p, o, t(cid:105). 6.2 評価プロトコルとメトリクス 与えられた(金)テストトリプル (cid:104)s, p, o, t(cid:105) 各エンティティ s(cid:48) ∈ e に対して、対象 s を s(cid:48) に交換し、結果のクエリ (cid:104)s(cid:48), p, o, t(cid:105) にスコアリング関数 f を適用する。 0.85
Since replacing s by all possible entity s(cid:48) may end up with a correct facts, we filter out those valid quadruplets and give them extremely low scores to avoid correct quadruplets to be scored higher than the tested quadruplet in final ranking (Bordes et al , 2013). s を全ての可能なエンティティ s(cid:48) で置き換えると正しい事実が得られるので、これらの有効な四つ組をフィルタリングして極端に低いスコアを与えて、テストされた四つ組よりも高いスコアを得るのを避ける(Bordes et al , 2013)。 0.69
We then rank the entities based on their scores in descending order. 次に、下位順にスコアに基づいてエンティティをランク付けします。 0.55
We store the rank of the correct entity s noted zs. 我々は正しい実体 s noted zs のランクを記憶する。 0.62
Thus, the model should maximize the returned score for the entity s such that zs = 1. したがって、モデルは zs = 1 となるようなエンティティ s に対する返却スコアを最大化するべきである。 0.70
The same process is done using the object o. 同じプロセスはオブジェクト o を使って行われます。 0.89
To evaluate our models, we make use of the Mean Reciprocal Rank (MRR). モデルを評価するために、私たちは平均相互ランク(mrr)を使用します。 0.70
We also provide the Hits@1 (H@1), Hits@3 (H@3) and Hits@10 (H@10) which assess on the frequency that the valid entity is in the top-1, top-3 and top-10 position, respectively. Hits@1 (H@1), Hits@3 (H@3) と Hits@10 (H@10) も提供しています。
訳抜け防止モード: Hits@1 (H@1 ) や Hits@3 (H@3 ) も提供しています。 Hits@10 (H@10 ) 有効なエンティティがそれぞれトップ1、トップ3、トップ10の位置にある頻度を評価する。
0.64
6.3 Implementation Details To ensure unbiased comparability, the same training procedure and hyper-parameters are shared for 6.3 実施内容 バイアスのないコンパビリティを確保するため、同じトレーニング手順とハイパーパラメータが共有される。 0.51
英語(論文から抽出)日本語訳スコア
Model TTRANSE TCOMPLEX モデル テラノーストプレックス 0.50
HYTE ATISE TERO ハイテ・アテーゼ・テロ 0.14
DYERNIE ATTH DYERNIE ATTH 0.85
HERCULES Parameters ヘラクレス パラメータ 0.57
(|E| + 2|R| + |T |) · n (2|E| + 4|R| + 2|T |) · n (|E| + 2|R| + |T |) · n (|E| + 2|R| + |T |) · n (|E| + 2|R| + |T |) · n (2|E| + 4|R| + 2|T |) · n (|E| + 2|R| + |T |) · n (|E| + 2|R| + |T |) 0.74
(|E| + 2|R|) · n (|E| + 2|R|)·n 0.71
2 · (|E| + 2|R|) · n + 2 · |E| 2 · (|E| + 2|R|) · n + 2 · |E| 0.78
(|E| + 2|R|) · n + |E| + 2|R|(1 + 3n) (|E| + 2|R|) ·n + |E| + 2|R|(1 + 3n) 0.71
(|E| + 2|R|) · n + |E| + 2|R|(1 + 3n) + |T | (|E| + 2|R|) ·n + |E| + 2|R|(1 + 3n) + |T | 0.73
Table 1: Number of parameters per models with respect to the embedding dimension n. 表1: 埋め込み次元 n に関するモデル毎のパラメータの数。 0.70
Datasets ICEWS14 Datasets ICEWS14 0.88
ICEWS05-15 ICEWS05-15 0.47
|E| 7,128 10,488 |E| 7,128 10,488 0.47
|R| 230 251 |R| 230 251 0.78
|T | Training Validation 365 4017 |t | training validation 365 4017 0.83
72,128 368,962 72,128 368,962 0.50
8,941 46,275 8,941 46,275 0.50
Test 8,963 46,092 テスト 8,963 46,092 0.55
Table 2: ICEWS14 and ICEWS05-15 Datasets Statistics 表2:ICEWS14とICEWS05-15データセット統計 0.71
ATTH and HERCULES.4 Number of epochs and batch size were set to 500 and 256, respectively. ATTHとHERCULES.4のエポック数とバッチサイズはそれぞれ500と256に設定された。 0.70
We minimized the cross-entropy loss using negative sampling, where negative samples corrupt the valid object only (uniformly selected). 負のサンプルが有効対象(一様選択)のみを破損させた場合, 負のサンプリングによるクロスエントロピー損失を最小限に抑えた。 0.63
After validation, we noticed that best results were obtained using 500 negative samples. 検証の結果,500個の負の試料を用いて最良の結果を得た。 0.69
We chose the Adam optimizer (Kingma and Ba, 2014) with an initial learning rate of 0.001. 我々はadam optimizer (kingma and ba, 2014) を初期学習率0.0001で選択した。 0.76
The final models for evaluation were selected upon the MRR metric on the validation set. 評価のための最終モデルは検証セットのmrrメトリックで選択された。 0.78
We re-train ATISE and TERO using the same parameters as mentionned in Xu et al (2019) and Xu et al (2020b) but varying dimensions.5 我々は、Xu et al (2019) と Xu et al (2020b) で言及されているのと同じパラメータを用いて、AITISE と TERO を再訓練する。 0.64
6.4 Results We report models performances on the link prediction task on TKGs. 6.4 結果 TKG におけるリンク予測タスクの性能について報告する。 0.71
Additional analyses on the results are also given. 結果に関するさらなる分析も行われる。 0.70
6.4.1 Link Prediction results We provide link prediction results on ICEWS14 and ICEWS05-15 for ATTH, HERCULES and different models from the literature. 6.4.1 リンク予測結果 ICEWS14 と ICEWS05-15 について,ATTH と HERCULES のリンク予測結果と文献との違いについて述べる。 0.68
As Han et al (2020), we adopted a dimension analysis to investigate behaviors and robustness of approaches. han et al (2020) のように、アプローチの振る舞いとロバスト性を調べるために次元分析を適用した。 0.62
When possible, we re-run official implementation of models. 可能であれば、モデルの公式実装を再実行します。 0.54
Otherwise, official or best results in literature are reported. さもなければ、文学における公式または最良の成果が報告される。 0.51
Results are shown in Table 3. 結果は表3に示されています。 0.67
4We used the official implementation of ATTH available at https://github.com/H azyResearch/KGEmb. 4) ATTHの公式実装をhttps://github.com/H azyResearch/KGEmbで使用しました。 0.48
We adapted it to implement HERCULES. HERCULESを実装した。 0.39
5We used the official implementation available at https: 5 https で利用可能な公式実装を使用しました。 0.51
//github.com/soledad 921/ATISE //github.com/soledad 921/ATISE 0.21
As expected, hyperbolic-based strategies (i.e. 予想通り、双曲的戦略(すなわち、双曲的戦略)。 0.44
DYERNIE, ATTH and HERCULES) perform much better at lower dimensions, outperforming most of other approaches with ten times less dimensions. ダイアーニー、 atth、hercules) は低い次元ではずっと良く、他のアプローチよりも10倍少ない次元で優れている。
訳抜け防止モード: DYERNIE, ATTH, HERCULES) は低次元でより優れた性能を発揮する。 10倍の次元で 他のアプローチよりも優れています
0.64
We report an average absolute gain of 11.6% points in MRR with only 10 dimensions over the median performance of other approaches with 100 dimensions. 我々は,100次元の他の手法の中央値よりも10次元しか持たないMRRにおいて,平均11.6%の絶対ゲインを報告した。 0.65
This strengthens the effectiveness of hyperbolic geometry to induce high-quality embeddings with few parameters. これは双曲幾何学の有効性を強化し、パラメータの少ない高品質な埋め込みを誘導する。 0.54
Astonishingly, we notice that ATTH model is highly competitive despite the absence of time parameter. 驚くべきことに、ATTHモデルは時間パラメータの欠如にもかかわらず非常に競争力がある。 0.66
ATTH exhibits new state-of-the-art or statistically equivalent performances compared to DYERNIE and HERCULES. ATTHはDYERNIEやHERCULESと比較して、新しい最先端または統計的に等価なパフォーマンスを示す。 0.50
We remark no statistically significant differences in performances between hyperbolic models.6 Importantly, unlike other research carried out in this area, time information here does not lead to any notable gain. 我々は、双曲モデル間の性能の統計的に有意な差を示さない。6 重要なことは、この分野で行われた他の研究と異なり、ここでの時間情報は目立った利益につながりません。 0.58
This seems to indicate that other parameters should be considered. これは他のパラメータを考慮すべきであることを示している。 0.70
We examine this phenomenon in section 6.4.2. この現象をセクション6.4.2で検証する。 0.51
On ICEWS14, for dim ∈ {20, 40, 100}, both ATTH and HERCULES outperform DYERNIE by a large margin. ICEWS14 では dim ∈ {20, 40, 100} に対して、ATTH と HERCULES はともに DYERNIE よりも大きなマージンで優れている。 0.76
We witness an improvement of 2.5% and 5% points in MRR and Hits@1 with 100dimensional embeddings. MRRとHits@1では,100次元埋め込みで2.5%,5%の改善が見られた。 0.70
On ICEWS05-15, ATTH and HERCULES yield comparable achievements with the state-of-the-art. ICEWS05-15では、ATTHとHERCULESは最先端技術と同等の成果を上げている。 0.45
In contrast to DYERNIE, DYERNIEとは対照的に。 0.58
6We performed the Mixed-Factorial Analysis of Variance (ANOVA), in which the independent variables are the dimension and the model and the dependent variable is the metric. 6) ANOVA (Mixed-Factorial Analysis of Variance) を行い, 独立変数は次元, モデル, 従属変数は距離について検討した。 0.75
We consider two groups one for each dataset. データセット毎に2つのグループを考えます。 0.71
We report pvalues of 0.842, 0.872, 0.926 and 0.229 for MRR, H@1, H@3 and H@10 respectively. MRRは0.842,0.872,0.926,0. 229,H@1,H@3,H@10であった。 0.64
英語(論文から抽出)日本語訳スコア
it is noteworthy that ATTH and HERCULES utilize a single manifold while reaching top performances. ATTH と HERCULES がトップパフォーマンスに到達しながら単一の多様体を利用していることは注目に値する。 0.57
We also distinguish tempered results on Hits@10 metric for ATTH and HERCULES models. また,ATTHモデルとHERCULESモデルのHits@10測定値について,評価を行った。 0.57
This suggests that during optimization, ATTH and HERCULES favor ranking some entities on top while harming the representation of others. これは最適化の間、ATTHとHERCULESは、他の表現を害しながら上位のエンティティをランク付けすることを好んでいることを示唆している。 0.46
Is Time All You Need ? 6.4.2 In this section, we investigate the influence of the temporal parameter on performances. 時間が必要なの? 6.4.2 本節では, 時間パラメータが性能に与える影響について検討する。 0.67
First, besides time translation, we probe different curvature definitions to identify fluctuation in performances. まず、時間変換の他に、異なる曲率の定義を探索してパフォーマンスの変動を特定する。 0.51
We analyze how time information alters the LP results by adding time as part of the curvature (i.e. 曲率の一部として時間を追加することにより, 時間情報がどのようにlp結果を変化させるかを分析する(即ち)。 0.56
HERCULES) and as a translation. HERCULES)と翻訳。 0.57
We also explore if incorporating the Euclidean dot product of the subject and object embeddings (noted (cid:104)e o(cid:105)) into the curvature helps to learn a better E E s , e geometry. また、対象のユークリッド点積と対象埋め込み (noted (cid:104)e o (cid:105)) を曲率に組み込むことで、より優れたE E s , e 幾何を学ぶことができるかを検討する。 0.68
An ablation study is given in Table 4. アブレーション研究はテーブル4で行われます。 0.73
Albeit counter-intuitive, we observe that our results corroborate with our initial finding: time information is not the culprit of our high performances. 反直感的ではあるが、我々の結果は我々の最初の発見と相関している: 時間情報は我々のハイパフォーマンスの要因ではない。 0.62
More strikingly, a simple relational curvature (i.e. より印象的なことに、単純なリレーショナル曲率 (relational curvature) である。 0.50
ATTH) is sufficient to perform best on ICEWS14 (dim = 40). ATTH)はICEWS14(dim = 40)でベストを尽くすのに十分である。 0.77
Neither the inclusion of a time translation, similarly to TTRANSE, nor the Euclidean dot product provide interesting outcomes. TTRANSEと同様の時間翻訳もユークリッドドット製品も、興味深い結果をもたらすものではない。 0.59
We then probe the sensitivity of HERCULES towards temporal feature by performing LP with incorrect timestamps. 次に,不正確なタイムスタンプでLPを実行することにより,HERCULESの時間的特徴に対する感度を探索する。 0.51
Our intuition is to inspect whether feeding invalid timestamps during evaluation exhibits significant variation or not compared to the reference performances, i.e. 私たちの直感は、評価中の無効なタイムスタンプが、基準性能と比べて大きな変動を示すかどうかを検査することです。 0.57
LP results with initial (non-corrupted) testing samples. LPは初期(非破壊)テストサンプルで結果を得る。 0.69
To do so, for each testing quadruplet, we replace the (correct) time parameter with each possible timestamp from T . そのため、テストの各クワッドラップレットでは、(正しい)タイムパラメータをtから可能な各タイムスタンプに置き換えます。 0.69
We therefore collect multiple LP performances of HERCULES corresponding to each distinct timestamp. そこで我々は,異なるタイムスタンプに対応するHERCULESの複数のLPパフォーマンスを収集する。 0.65
We plot the distribution of resulting performances of temporally-corrupted quadruplets from ICEWS14 (dim=100) in Fig 2. 図2のICEWS14(dim=100)から時間的に故障した四重項の分布をプロットする。 0.69
We can observe that despite erroneous timestamps, LP results show insignificant discrepancies with the initial HERCULES performance (dashed red line). 不正なタイムスタンプにもかかわらず,LPの結果はHERCULESの初期性能(脱落した赤線)と不一致を示した。 0.67
The standard deviations from HERCULES reference performance for MRR, H@1, H@3, H@10 metrics are 1.78 × 10−4, 3.18 × 10−3, 1.05 × 10−2, 3.55 × 10−3 respectively. MRR、H@1、H@3、H@10の基準性能の標準偏差は、それぞれ1.78 × 10−4、3.18 × 10−3、1.05 × 10−2、3.55 × 10−3である。
訳抜け防止モード: MRR, H@1, H@3, H@10 の基準性能の標準偏差は 1.78 × 10−4 である。 3.18 × 10−3, 1.05 × 10−2, 3.55 × 10−3 respectively .
0.82
This indicates that HERCULES gives little importance to the time parameter and thus only relies on the entity and the predicate to perform knowledge graph completion. このことは、HERCULESが時間パラメータにはほとんど重要でないことを示しているため、知識グラフの補完を行うにはエンティティと述語のみに依存する。 0.64
This fur- ther highlights our finding that timestamp is not responsible for our attracting performances. この毛皮 therが強調するのは、timetampが当社のパフォーマンスを惹きつける責任を負っていないことだ。 0.53
Figure 2: Distribution of performances of HERCULES on temporally-corrupted quadruplets from ICEWS14 with dim=100. 図2: ICEWS14 から HERCULES における HERCULES の性能分布を dim=100。 0.76
A smooth approximation of the distribution is drawn as a dashed black curve. 分布の滑らかな近似は、破れた黒曲線として描画される。 0.71
The reference performance is indicated with a dashed red line. 基準性能は、破れた赤線で示される。 0.56
We therefore assume that the optimization procedure may be involved. したがって、最適化手順が関与していると仮定する。 0.62
We consequently question the effect of negative sampling. その結果、負のサンプリングの効果に疑問を呈する。 0.63
Precisely, we train HERCULES with dim = 40 by tuning the number of negative samples between 50 to 500. より正確には、50から500までの負のサンプル数を調整し、ディム=40でHERCULESを訓練する。 0.68
We plot the learning curves in Fig 3. 図3の学習曲線をプロットする。 0.66
Figure 3: Performance of HERCULES (dim = 40) on ICEWS14 and ICEWS05-15 with varying number of negative samples. 図3: ICEWS14 および ICEWS05-15 上の HERCULES (dim = 40) のパフォーマンス。
訳抜け防止モード: 図3:ICEWS14におけるHERCULES(dim = 40 )の性能 そしてICEWS05 - 15は、さまざまな数の負のサンプルを持つ。
0.67
For both, ICEWS14 and ICEWS05-15, negative sampling shows considerable gain as the number of samples increases. ICEWS14 とICEWS05-15 のいずれにおいても,サンプル数の増加とともに負のサンプリングがかなりの増加を示した。 0.63
We record an absolute gain of 5% points in MRR from 50 to 500 samples. 我々は50点から500点までのmdrの絶対値が5%と記録した。 0.66
We can see a rapid growth in MRR when the number of samples is inferior to 200. MRRの急激な増加は、サンプル数が200に劣るときに見られる。 0.61
Adding 50 samples is equivalent to about 2% points gain in MRR. 50のサンプルを追加することは、MRRの約2%の利得に相当する。 0.67
Then, 69.4469.46MRR (in %) 64.9565.0065.05Hits@ 1 (in %) 71.3671.3871.40Hits@ 3 (in %) 77.9277.94Hits@10 (in %) 50100150200250300350 400450500Negative Samples5658606264666 8MRR (%)ICEWS05-15ICEWS14 そしたら 69.4469.46MRR (in %) 64.9565.0065.05Hits@ 1 (in %) 71.3671.3871.40Hits@ 3 (in %) 77.9277.94Hits@10 (in %) 50100150150350350350 450500Negative Samples5658606262666 8MRR (%)ICEWS05-15ICEWS14 0.60
英語(論文から抽出)日本語訳スコア
dim 10 20 40 ディム 10 20 40 0.80
100 Datasets 100 データセット 0.74
ICEWS14 (filtered) ICEWS14 (フィルタ) 0.93
ICEWS05-15 (filtered) ICEWS05-15(フィルター) 0.70
Model ATISE TERO モデルアティセ テラオ 0.55
DYERNIE. HERCULES DYERNIE ヘラクレス 0.40
ATTH ATISE TERO ATTH ATISEU TERROU 0.66
DYERNIE. HERCULES DYERNIE ヘラクレス 0.40
ATTH ATISE TERO ATTH ATISEU TERROU 0.66
DYERNIE. HERCULES DYERNIE ヘラクレス 0.40
ATTH TRANSE. ATTH トランス。 0.62
DISTMULT. COMPLEX. DISTMULT COMPLEX 0.47
TTRANSE. TCOMPLEX. TTRANSE TCOMPLEX 0.49
HYTE. ATISE TERO ハイテ。 アティセ・テロ 0.41
DYERNIE. HERCULES DYERNIE ヘラクレス 0.40
ATTH MRR H@1 H@3 H@10 MRR H@1 H@3 H@10 41.0 18.0 23.2 7.25 46.2 75.1 73.2 46.0 73.6 45.6 59.2 19.1 24.5 54.1 79.0 53.9 55.5 77.6 77.5 55.2 38.4 69.1 60.5 35.1 82.5 58.8 61.2 80.9 61.7 80.6 61.1 30.0 72.5 57.5 49.3 68.4 67.6 34.4 62.0 31.8 80.4 33.1 52.2 76.4 71.7 45.4 85.5 66.9 69.4 82.9 69.5 82.9 ATTH MRR H@1 H@3 H@10 MRR H@1 H@3 H@10 41.0 18.0 23.2 7.25 46.2 75.1 73.2 46.0 73.6 45.6 59.2 19.1 24.5 54.1 79.0 53.9 55.5 77.6 77.5 55.2 38.4 69.1 60.5 35.1 82.5 58.8 61.2 80.9 61.7 80.6 61.1 30.0 72.5 57.5 49.3 68.4 67.6 34.4 62.0 31.8 80.4 33.1 52.2 76.4 71.7 45.4 85.5 66.9 69.4 82.9 69.5 82.9 0.67
19.22 10.1 63.2 61.8 61.6 32.3 33.3 68.2 67.7 67.7 44.3 35.3 72.8 72.0 71.9 42.4 55.1 49.2 51.1 49.2 65.0 55.5 48.9 77.3 76.1 76.0 19.22 10.1 63.2 61.8 61.6 32.3 33.3 68.2 67.7 67.7 44.3 35.3 72.8 72.0 71.9 42.4 55.1 49.2 51.1 49.2 65.0 55.5 48.9 77.3 76.1 76.0 0.40
23.9 6.40 51.1 52.4 52.0 28.2 28.01 58.9 59.4 59.7 47.6 40.5 63.8 64.7 65.4 42.7 64.2 56.2 38.3 45.7 54.5 60.0 52.2 71.4 71.4 71.5 23.9 6.40 51.1 52.4 52.0 28.2 28.01 58.9 59.4 59.7 47.6 40.5 63.8 64.7 65.4 42.7 64.2 56.2 38.3 45.7 54.5 60.0 52.2 71.4 71.4 71.5 0.40
48.7 16.6 66.3 66.0 66.4 54.7 46.3 72.7 71.4 71.4 67.3 60.8 76.1 74.1 75.4 60.1 77.9 74.2 51.3 63.0 73.6 72.7 67.0 79.7 77.9 78.2 48.7 16.6 66.3 66.0 66.4 54.7 46.3 72.7 71.4 71.4 67.3 60.8 76.1 74.1 75.4 60.1 77.9 74.2 51.3 63.0 73.6 72.7 67.0 79.7 77.9 78.2 0.40
15.9 10.3 58.9 54.7 49.9 24.5 27.1 64.2 63.2 63.5 35.7 28.3 68.9 68.5 68.5 30.4 47.1 39.0 35.6 45.1 38.1 47.0 41.1 73.9 73.5 73.6 15.9 10.3 58.9 54.7 49.9 24.5 27.1 64.2 63.2 63.5 35.7 28.3 68.9 68.5 68.5 30.4 47.1 39.0 35.6 45.1 38.1 47.0 41.1 73.9 73.5 73.6 0.40
4.35 3.54 50.5 43.8 34.4 7.67 13.5 56.5 55.2 55.8 19.2 12.7 61.8 62.1 62.0 13.3 33.6 22.9 15.4 36.3 7.6 32.4 26.3 67.9 68.6 68.6 4.35 3.54 50.5 43.8 34.4 7.67 13.5 56.5 55.2 55.8 19.2 12.7 61.8 62.1 62.0 13.3 33.6 22.9 15.4 36.3 7.6 32.4 26.3 67.9 68.6 68.6 0.40
3.03 2.39 36.0 34.9 34.2 1.28 13.8 44.2 47.2 46.7 23.3 22.7 49.8 54.3 54.5 14.8 46.9 36.6 25.7 12.9 6.8 41.0 34.0 59.9 65.0 65.0 3.03 2.39 36.0 34.9 34.2 1.28 13.8 44.2 47.2 46.7 23.3 22.7 49.8 54.3 54.5 14.8 46.9 36.6 25.7 12.9 6.8 41.0 34.0 59.9 65.0 65.0 0.40
Table 3: Link prediction results on ICEWS14 and ICEWS05-15 datasets: () results are obtained using the official implementation of Xu et al (2020a), (.) 表3: ICEWS14とICEWS05-15データセットのリンク予測結果: Xu et al (2020a), () の公式実装を用いて, 結果が得られた。 0.85
results are taken from Han et al (2020). 結果はHan et al (2020) から取られた。 0.78
For each dimension (i.e. 各次元 (i) について。 0.54
dim), best results are in bold and second-to-best underlined. 最善の結果は、大胆で2番目から2番目の下線で示される。 0.46
No statistically significant differences in performance are observed between DYERNIE, HERCULES and ATTH.6 (cid:104)e o(cid:105) E E s , e Curvature DYERNIE, HERCULES と ATTH.6 (cid:104)e o(cid:105)E E s , e Curvature の間には統計的に有意な差は見られなかった。 0.70
MRR H@1 H@3 H@10 MRR H@1 H@3 H@10 0.85
Relation Curvature Translation Curvature 関係曲線 翻訳 曲率 0.69
Time Time     時間 時間     0.78
                0.85
    61.7 61.2 60.1 49.5     61.7 61.2 60.1 49.5 0.65
54.5 54.3 52.1 38.9 54.5 54.3 52.1 38.9 0.45
65.4 64.7 64.5 55.4 65.4 64.7 64.5 55.4 0.45
75.4 74.1 75.0 69.2 75.4 74.1 75.0 69.2 0.45
Table 4: Ablation study: Link prediction results on ICEWS14 using ATTH (dim = 40) with different curvature definitions and time translation applied. 表4: アブレーション研究:ATTH (dim = 40) を用いてICEWS14上の異なる曲率定義と時間変換を適用したリンク予測結果。 0.80
performances reach a plateau around 300 negative samples. 演奏はおよそ300の負のサンプルの台地に達する。 0.67
We conjecture that a diversity in negative samples is enough to learn good representations. 負のサンプルの多様性は、よい表現を学ぶのに十分である。 0.75
Notwithstanding that a large number of negative samples heavily constraints the location of entities in space, the resulting embeddings might benefit from it to be better positioned relatively to others. 多数の負のサンプルが宇宙の実体の位置を厳しく制限しているにもかかわらず、結果として生じる埋め込みは、他人よりも比較的良い位置にあるという利点があるかもしれない。
訳抜け防止モード: にもかかわらず、多くの負のサンプルは空間内の実体の位置を厳しく制約する。 埋め込みの結果は、他人よりも比較的良い位置にいるという利点があるかもしれない。
0.61
We conclude that despite the present time param- 我々は、現在のパラムにもかかわらず、 0.50
eter, an optimal negative sampling enables to reach new state-of-the-art outcome. 最適な負のサンプリングによって、新たな最先端の成果が得られます。 0.53
Therefore, we argue that time is not the only parameter that should be considered when performing LP. したがって、lpを実行する際に考慮すべきパラメータは時間だけではない。
訳抜け防止モード: したがって、我々は議論する。 LPを実行する際に考慮すべきパラメータは時間だけではない。
0.73
We highlight that one should be raising awareness when training TKG representations to identify if time is truly helping to boost performances. TKG表現のトレーニングでは、時間が本当にパフォーマンス向上に役立つかどうかを判断する上で、意識を高めるべきである、と強調する。 0.51
英語(論文から抽出)日本語訳スコア
6.4.3 ATTH versus HERCULES We explore here how the geometry of HERCULES differs from ATTH. 6.4.3 ATTH vs. HERCULES ここでは、HERCULESの幾何学がATTHとどのように異なるかを探求する。 0.55
To do so, we inspect the absolute difference of their learned curvatures ∆c. そのために、学習した曲率の絶対差を<c>で調べる。 0.60
We plot ∆c with respect to the relations and timestamps for dim = 40 on ICEWS14 in Fig 4.7 Similar plots are given for ICEWS05-15 in Appendix A.1. fig 4.7 の icews14 における dim = 40 の関係とタイムスタンプに関して、同様のプロットは appendix a.1 の icews05-15 にも与えられる。 0.67
Figure 4: Absolute curvatures differences between ATTH and HERCULES given specific relation and time on ICEWS14 dataset (dim = 40). 図4: ICEWS14データセット(dim = 40)に特定の関係と時間を与えるATTHとHERCULESの絶対曲率の違い。 0.82
Besides rare steep discrepancy in curvatures (i.e. 曲率の急な差(つまり)の他に 0.61
∆c > 1.0), HERCULES is akin to ATTH concerning learned geometries. HERCULESはATTHの学習測地学に類似している。 0.37
We report that 85.0% and 95.6% of ∆c’s are smaller than 0.1 on ICEWS14 and ICEWS05-15 respectively. ICEWS14とICEWS05-15では,85.0%,95.6%が0.1以下であった。 0.70
We point out that some timestamps affect globally all relations, albeit very limited. いくつかのタイムスタンプは全世界のすべての関係に影響を及ぼすが、非常に限られている。 0.51
This can be seen in Fig 5 by the aligned vertical strips. これは図5に並べられた垂直のストリップで見ることができます。 0.66
It indicates that HERCULES uses its additional time parameter to learn a slightly different manifold but nonetheless quite similar to ATTH.8 We provide further analysis on the shifts of the curvatures while increasing embeddings dimension in Appendices A.2 and A.3. HERCULESはその追加時間パラメータを使ってわずかに異なる多様体を学習することを示しているが、それでもATTH.8と非常によく似ている。
訳抜け防止モード: ヘラクレスは少し異なる多様体を学ぶのに 追加の時間パラメータを使い しかし、 atth.8 と非常によく似ているにもかかわらず、我々は曲率のシフトに関するさらなる分析を提供し、追加点 a.2 と a.3 への埋め込み次元を増加させる。
0.55
We depict an example of learned hyperbolic representation of ICEWS14 entities of ATTH and HERCULES for the relation ‘make a visit’and timestamp set to 01-01-2014 in Fig 5. 第5図では'make a visit' とタイムスタンプセットの 01-01-2014 の関係について、icews14 の学習した双曲表現の例を示す。 0.78
We plot embeddings of ICEWS05-15 in Appendix A.4. ICEWS05-15 の Appendix A.4 への埋め込みをプロットする。 0.58
7 Conclusion In this paper, we have demonstrated that without adding neither time information nor supplementary parameters, the ATTH model astonishingly achieves similar or new state-of-the-art performances on link prediction upon temporal knowledge graphs. 7 結論 本稿では,時間情報も補足パラメータも加えずに,時相知識グラフ上のリンク予測において,ATTHモデルが驚くべきことに類似あるいは新しい技術性能を実現することを示した。 0.74
In spite of the inclusion of time with 7For readability, we don’t plot ∆c for reverse relations p−1 8Similar geometry (cid:54)= Similar embeddings 7For可読性を持つ時間を含むにもかかわらず、逆関係 p−1 8Similar geometry (cid:54)= similar embeddeds をプロットしない。 0.76
(see Section 6.1). Figure 5: Illustration of two-dimensional hyperbolic entity embeddings learned by ATTH (left) and HERCULES (right) on ICEWS14 for predicate ‘make a visit’and timestamp set to 01-01-2014. (第6節参照)。 図5: ATTH(左)とHERCULES(右)がICEWS14上で学習した2次元双曲体埋め込みの図解。 0.49
our proposed time-aware model HERCULES, we have shown that negative sampling is sufficient to learn a good underlying geometry. 提案した時間認識モデル HERCULES では, 負のサンプリングが十分であることを示す。
訳抜け防止モード: 提案された時間 - 認識モデルHERCULESは ネガティブサンプリングは 良い基礎となる幾何学を学ぶのに十分です
0.72
In the future, we plan to explore new mechanisms to incorporate temporal information to improve performances of ATTH. 今後,ATTHの性能向上のために,時間情報を組み込む新たなメカニズムを検討する予定である。 0.86
References Ivana Balaˇzevi´c, Carl Allen, and Timothy Hospedales. イヴァナ・バラシゼヴィ、カール・アレン、ティモシー・ホスペデールを参照。 0.41
2019a. Multi-relational poincar´e graph embeddings. 2019年。 マルチリレーショナルポインカー ́e グラフ埋め込み。 0.66
In Advances in Neural Information Processing Systems. 神経情報処理システムの進歩です 0.58
Ivana Balaˇzevi´c, Carl Allen, and Timothy Hospedales. イヴァナ・バラシェヴィ、カール・アレン、ティモシー・ホスペダレス。 0.42
2019b. TuckER: Tensor factorization for knowledge graph completion. 2019年。 TuckER: 知識グラフ補完のためのテンソル分解。 0.63
In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pages 5185–5194, Hong Kong, China. 第9回自然言語処理国際共同会議(emnlpijcnlp)と2019年の自然言語処理に関する実証的手法に関する会議の議事録では、香港の5185-5194ページが紹介されている。
訳抜け防止モード: 自然言語処理における経験的手法に関する2019年会議のまとめ 第9回国際自然言語処理国際会議(EMNLPIJCNLP)に参加して 5185-5194頁、香港、中国。
0.82
Association for Computational Linguistics. Silv`ere Bonnabel. 計算言語学会会員。 Silv`ere Bonnabel 0.57
2013. Stochastic gradient descent on riemannian manifolds. 2013. リーマン多様体上の確率的勾配降下。 0.69
IEEE Transactions on Automatic Control, 58:2217–2229. IEEE Transactions on Automatic Control, 58:2217–2229。 0.76
Antoine Bordes, Sumit Chopra, and Jason Weston. アントワーヌ・ボルデス、スミット・チョプラ、ジェイソン・ウェストン。 0.54
2014. Question answering with subgraph embedIn Proceedings of the 2014 Conference on dings. 2014. 2014 conference on dingsのサブグラフ埋め込みによる質問応答。 0.77
Empirical Methods in Natural Language Processing (EMNLP), pages 615–620, Doha, Qatar. Empirical Methods in Natural Language Processing (EMNLP) 615-620, Doha, Qatar 0.71
Association for Computational Linguistics. Antoine Bordes, Nicolas Usunier, Alberto GarciaDur´an, Jason Weston, and Oksana Yakhnenko. 計算言語学会会員。 Antoine Bordes, Nicolas Usunier, Alberto GarciaDur ́an, Jason Weston, Oksana Yakhnenko 0.65
2013. Translating embeddings for modeling multirelational data. 2013. マルチリレーショナルデータモデリングのための埋め込みの翻訳 0.76
In Proceedings of the 26th International Conference on Neural Information Processing Systems - Volume 2, NIPS’13, page 2787–2795, Red Hook, NY, USA. The 26th International Conference on Neural Information Processing Systems - Volume 2, NIPS'13, page 2787–2795, Red Hook, NY, USA (英語) 0.85
Curran Associates Inc. Curran Associates Inc. 0.85
Elizabeth Boschee, Jennifer Lautenschlager, Sean O’Brien, Steve Shellman, and James Starz. エリザベス・ボシー Jennifer Lautenschlager、Sean O'Brien、Steve Shellman、James Starz。 0.67
2018. ICEWS Weekly Event Data. 2018. ICEWSウィークリーイベントデータ。 0.79
Harvard Dataverse. ハーバード・データバース 0.54
TimestampsRelations0 .20.40.60.81.01.2c0. 20.10.00.10.20.20.10 .00.10.2othersBarack ObamaFrance0.20.10.0 0.10.20.20.10.00.10. 2othersBarack ObamaFrance Timestamps Relations0.20.40.60. 80.11.2c0.20.10.10.1 0.10.1 0.othersBarack ObamaFrance0.20.10.1 0.10.10.1 0.othersBarack ObamaFrance 0.08
英語(論文から抽出)日本語訳スコア
Ines Chami, Adva Wolf, Da-Cheng Juan, Frederic Sala, Sujith Ravi, and Christopher R´e. Ines Chami, Adva Wolf, Da-Cheng Juan, Frederic Sala, Sujith Ravi, Christopher R ́e 0.84
2020. Lowdimensional hyperbolic knowledge graph embedIn Proceedings of the 58th Annual Meetdings. 2020. 低次元双曲知識グラフの埋め込み 第58回年次大会の成果 0.74
ing of the Association for Computational Linguistics, pages 6901–6914, Online. ing of the association for computational linguistics, pages 6901-6914, online (英語) 0.71
Association for Computational Linguistics. Ines Chami, Zhitao Ying, Christopher R´e, and Jure Leskovec. 計算言語学会会員。 Ines Chami、Zhitao Ying、Christopher R ́e、Jure Leskovec。 0.60
2019. Hyperbolic graph convolutional neural networks. 2019. 双曲グラフ畳み込みニューラルネットワーク。 0.72
In Advances in Neural Information Processing Systems, volume 32, pages 4868–4879. 神経情報処理システムの発展において、第32巻4868-4879頁。 0.66
Curran Associates, Inc. Curran Associates, Inc. 0.85
Xiaojun Chen, Shengbin Jia, and Yang Xiang. Xiaojun Chen、Shengbin Jia、Yang Xiang。 0.63
2020. A review: Knowledge reasoning over knowlExpert Systems with Applications, edge graph. 2020. a review: knowledge reasoning over knowlexpert systems with applications, edge graph(英語) 0.84
141:112948. 141:112948. 0.71
Shib Sankar Dasgupta, Swayambhu Nath Ray, and Partha Talukdar. Shib Sankar Dasgupta, Swayambhu Nath Ray, Partha Talukdar 0.61
2018. HyTE: Hyperplane-based temporally aware knowledge graph embedding. 2018. HyTE: ハイパープレーンベースの時間認識知識グラフの埋め込み。 0.76
In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 2001–2011, Brussels, Belgium. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 2001–2011, Brussels, Belgium 0.84
Association for Computational Linguistics. Octavian Ganea, Gary Becigneul, and Thomas HofIn Admann. 計算言語学会会員。 Octavian Ganea、Gary Becigneul、Thomas HofIn Admann。 0.59
2018. Hyperbolic neural networks. 2018. 双曲型ニューラルネットワーク。 0.77
vances in Neural Information Processing Systems, volume 31, pages 5345–5355. Neural Information Processing Systems, Volume 31, page 5345–5355。 0.76
Curran Associates, Inc. Curran Associates, Inc. 0.85
Alberto Garc´ıa-Dur´an, Sebastijan Dumanˇci´c, and Mathias Niepert. アルベルト・ガルク、セバスティアン・ドゥマニッチ、マティアス・ニーパート。 0.41
2018. Learning sequence encoders for temporal knowledge graph completion. 2018. 時間知識グラフ補完のための学習シーケンスエンコーダ 0.80
In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 4816– 4821, Brussels, Belgium. 自然言語処理における経験的手法に関する2018年会議の議題4816-4821ページ、ブリュッセル、ベルギー。 0.76
Association for Computational Linguistics. Rishab Goel, Seyed Mehran Kazemi, Marcus Brubaker, and Pascal Poupart. 計算言語学会会員。 Rishab Goel、Seyed Mehran Kazemi、Marcus Brubaker、Pascal Poupart。 0.60
2020. Diachronic embedding for temporal knowledge graph completion. 2020. 時間知識グラフ補完のためのダイアクロニック埋め込み 0.72
In AAAI. William L. Hamilton, Jure Leskovec, and Dan Jurafsky. AAAI所属。 William L. Hamilton、Jure Leskovec、Dan Jurafsky。 0.71
2016. Diachronic word embeddings reveal statistical laws of semantic change. 2016. ダイアクロニックな単語埋め込みは意味変化の統計的法則を明らかにする。 0.70
In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1489–1501, Berlin, Germany. 第54回計算言語学会年次大会(第1巻:長い論文)の議事録において、ドイツ、ベルリンの1489–1501頁。 0.70
Association for Computational Linguistics. Zhen Han, Peng Chen, Yunpu Ma, and Volker Tresp. 計算言語学会会員。 Zhen Han氏、Peng Chen氏、Yunpu Ma氏、Volker Tresp氏。 0.62
2020. DyERNIE: Dynamic Evolution of Riemannian Manifold Embeddings for Temporal Knowledge Graph Completion. 2020. DyERNIE: 時間知識グラフ補完のためのリーマン多様体埋め込みの動的進化 0.76
In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 7301–7316, Online. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), page 7301–7316, Online. 0.88
Association for Computational Linguistics. Yanchao Hao, Yuanzhe Zhang, Kang Liu, Shizhu He, Zhanyi Liu, Hua Wu, and Jun Zhao. 計算言語学会会員。 Yanchao Hao, Yuanzhe Zhang, Kang Liu, Shizhu He, Zhanyi Liu, Hua Wu, Jun Zhao 0.61
2017. An endto-end model for question answering over knowledge base with cross-attention combining global 2017. クロスアテンションをグローバルに組み合わせた知識ベースによる質問応答のエンドツーエンドモデル 0.77
knowledge. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 221–231, Vancouver, Canada. 知識。 第55回計算言語学会年次大会(第1巻:長い論文)では、カナダのバンクーバーにある221-231ページが使用された。 0.66
Association for Computational Linguistics. Thomas L. Heath and Euclid. 計算言語学会会員。 トーマス・L・ヒースとユークリッド。 0.52
1956. The Thirteen Books of Euclid’s Elements, Books 1 and 2. 1956. The Thirteen Books of Euclid's Elements, Books 1 and 2 (英語) 0.87
Dover Publications, Inc., USA. Dover Publications, Inc., USA 0.70
Sepp Hochreiter and J¨urgen Schmidhuber. Sepp HochreiterとJ surgen Schmidhuber。 0.90
1997. Neural computation, 1997. 神経計算 0.64
Long short-term memory. 9(8):1735–1780. 短期記憶。 9(8):1735–1780. 0.68
Diederik P. Kingma and Jimmy Ba. dieerik p. kingmaとjimmy ba。 0.75
2014. Adam: Cite A method for stochastic optimization. 2014. Adam: 確率最適化の方法です。 0.72
arxiv:1412.6980Comme nt: Published as a conference paper at the 3rd International Conference for Learning Representations, San Diego, 2015. arxiv:1412.6980comme nt: the 3rd international conference for learning representations, san diego, 2015で発表された。 0.83
Ni Lao and William W. Cohen. ニ・ラオとウィリアム・W・コーエン。 0.55
2010. Relational retrieval using a combination of path-constrained random walks. 2010. 経路制約付きランダムウォークの組み合わせによる関係検索 0.72
Mach. Learn., 81(1):53–67. Mach 81(1):53-67頁。 0.64
Julien Leblay and Melisachew Wudage Chekol. Julien Leblay と Melisachew Wudage Chekol。 0.78
2018. Deriving validity time in knowledge graph. 2018. 知識グラフにおける有効時間を導出する。 0.76
In Companion Proceedings of the The Web Conference 2018, WWW ’18, page 1771–1776, Republic and Canton of Geneva, CHE. Companion Proceedings of the Web Conference 2018, WWW ’18, page 1771–1776, Republic and Canton of Geneva, CHE 0.75
International World Wide Web Conferences Steering Committee. International World Wide Web Conferences Steering Committee(英語) 0.84
Yankai Lin, Zhiyuan Liu, Maosong Sun, Yang Liu, and Xuan Zhu. ヤンカイ・リン、Zhiyuan Liu、Maosong Sun、Yang Liu、Xuan Zhu。 0.73
2015. Learning entity and relation embeddings for knowledge graph completion. 2015. 知識グラフ補完のための学習エンティティと関係埋め込み。 0.85
In Proceedings of the Twenty-Ninth AAAI Conference on Artificial Intelligence, AAAI’15, page 2181–2187. 第二十九回AIAI人工知能会議紀要』、2181-2187頁。 0.46
AAAI Press. Qi Liu, Maximilian Nickel, and Douwe Kiela. AAAIプレス Qi Liu、Maximilian Nickel、Douwe Kiela。 0.59
2019. Hyperbolic graph neural networks. 2019. 双曲グラフニューラルネットワーク。 0.72
In Advances in Neural Information Processing Systems, volume 32, pages 8230–8241. Advanceds in Neural Information Processing Systems, Volume 32, page 8230–8241。 0.79
Curran Associates, Inc. Curran Associates, Inc. 0.85
Yunpu Ma, Volker Tresp, and Erik A. Daxberger. Yunpu Ma、Volker Tresp、Erik A. Daxberger。 0.68
2019. Embedding models for episodic knowledge graphs. 2019. 認識的知識グラフのための埋め込みモデル。 0.74
Journal of Web Semantics, 59:100490. Journal of Web Semantics, 59:100490。 0.89
Maximilian Nickel and Douwe Kiela. マクシミリアン・ニッケルとドゥウェ・キーラ。 0.39
2017. Poincar´e embeddings for learning hierarchical representations. 2017. poincar ́e 階層表現の学習のための埋め込み。 0.68
In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems 30, pages 6341–6350. I. Guyon, U.V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, R. Garnett, editors, Advances in Neural Information Processing Systems 30 pages 6341–6350。 0.96
Curran Associates, Inc. Curran Associates, Inc. 0.85
Maximilian Nickel and Volker Tresp. マクシミリアン・ニッケルとフォルカー・トレスプ。 0.45
2013. Tensor factorization for multi-relational learning. 2013. マルチリレーショナル学習のためのテンソル因子化 0.73
In Machine Learning and Knowledge Discovery in Databases, pages 617–621, Berlin, Heidelberg. Machine Learning and Knowledge Discovery in Databases, page 617–621, Berlin, Heidelberg. 0.89
Springer Berlin Heidelberg. ベルリン・ハイデルベルク出身。 0.62
Tim Rockt¨aschel, Sameer Singh, and Sebastian Riedel. ティム・ロック、サマー・シン、セバスチャン・リーデル。 0.39
2015. Injecting logical background knowledge into embeddings for relation extraction. 2015. 関係抽出のための埋め込みに論理的背景知識を注入する。 0.77
In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: 計算言語学会北米支部の2015年会議の議事録: 0.48
英語(論文から抽出)日本語訳スコア
Human Language Technologies, pages 1119–1129, Denver, Colorado. Human Language Technologies, page 1119–1129, Denver, Colorado 0.86
Association for Computational Linguistics. Rik Sarkar. 計算言語学会会員。 Rik Sarkar 0.55
2011. Low distortion delaunay embedding of trees in hyperbolic plane. 2011. 双曲面における樹木の低歪みドローネー埋め込み 0.73
In Proceedings of the 19th International Conference on Graph Drawing, GD’11, page 355–366, Berlin, Heidelberg. 第19回グラフ描画国際会議の議事録で、gd’11, page 355–366, berlin, heidelberg。 0.75
SpringerVerlag. SpringerVerlag 0.52
Apoorv Saxena, Aditay Tripathi, and Partha Talukdar. Apoorv Saxena、Aditay Tripathi、Partha Talukdar。 0.64
2020. Improving multi-hop question answering over knowledge graphs using knowledge base embeddings. 2020. 知識ベース埋め込みを用いた知識グラフ上でのマルチホップ質問応答の改善 0.77
In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 4498–4507, Online. The 58th Annual Meeting of the Association for Computational Linguistics, page 4498–4507, Online. 0.83
Association for Computational Linguistics. Zhiqing Sun, Zhi-Hong Deng, Jian-Yun Nie, and Jian Tang. 計算言語学会会員。 Zhiqing Sun、Zhi-Hong Deng、Jian-Yun Nie、Jian Tang。 0.67
2019. Rotate: Knowledge graph embedding by relational rotation in complex space. 2019. 回転: 複素空間における関係回転による知識グラフ埋め込み。 0.85
In International Conference on Learning Representations. 学習表現に関する国際会議に参加。 0.79
Rakshit Trivedi, Hanjun Dai, Yichen Wang, and Le Song. Rakshit Trivedi、Hanjun Dai、Yichen Wang、Le Song。 0.70
2017. Know-evolve: Deep temporal reaIn Prosoning for dynamic knowledge graphs. 2017. Know-evolve: 動的知識グラフのためのDeep temporal reaIn Prosoning。 0.83
ceedings of the 34th International Conference on Machine Learning - Volume 70, ICML’17, page 3462–3471. 第34回機械学習国際会議 - Volume 70, ICML’17, page 3462–3471 0.69
JMLR.org. Th´eo Trouillon, Johannes Welbl, Sebastian Riedel, ´Eric Gaussier, and Guillaume Bouchard. JMLR.org Th ́eo Trouillon, Johannes Welbl, Sebastian Riedel, ́ Eric Gaussier, Guillaume Bouchard 0.82
2016. Complex embeddings for simple link prediction. 2016. 単純なリンク予測のための複雑な埋め込み。 0.71
In Proceedings of the 33rd International Conference on International Conference on Machine Learning - Volume 48, ICML’16, page 2071–2080. 第33回In Proceedings of the 33rd International Conference on Machine Learning - Volume 48, ICML'16, page 2071–2080。 0.80
JMLR.org. J. Vermeer. JMLR.org J. Vermeer 0.80
2005. A geometric interpretation of ungar’s addition and of gyration in the hyperbolic plane. 2005. 双曲平面におけるアンガーの付加とジレーションの幾何学的解釈。 0.75
Topology and its Applications, 152(3):226 – 242. トポロジーとその応用, 152(3):226 – 242。 0.81
Special Issue Jan Aarts. 特集:ジャン・アーツ。 0.48
Zhen Wang, Jianwen Zhang, Jianlin Feng, and Zheng Chen. Zhen Wang、Jianwen Zhang、Jianlin Feng、Zheng Chen。 0.68
2014. Knowledge graph embedding by translating on hyperplanes. 2014. 超平面上の翻訳による知識グラフ埋め込み 0.80
In Proceedings of the TwentyEighth AAAI Conference on Artificial Intelligence, AAAI’14, page 1112–1119. TwentyEighth AAAI Conference on Artificial Intelligence, AAAI'14, page 1112–1119 0.66
AAAI Press. Yikun Xian, Zuohui Fu, S. Muthukrishnan, Gerard de Melo, and Yongfeng Zhang. AAAIプレス Yikun Xian, Zuohui Fu, S. Muthukrishnan, Gerard de Melo, Yongfeng Zhang 0.63
2019. Reinforcement knowledge graph reasoning for explainable recommendation. 2019. 説明可能な推奨のための強化知識グラフ推論。 0.77
In Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR’19, page 285–294, New York, NY, USA. 第42回International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR’19, page 285–294, New York, NY, USA 0.76
Association for Computing Machinery. アソシエーション・フォー・コンピューティング・マシンズ(Association for Computing Machinery)の略。 0.36
Chenyan Xiong, Russell Power, and Jamie Callan. Chenyan Xiong、Russell Power、Jamie Callan。 0.63
2017. Explicit semantic ranking for academic search via knowledge graph embedding. 2017. 知識グラフ埋め込みによる学術検索のセマンティックランキングの抽出 0.75
In Proceedings of the 26th International Conference on World Wide Web, WWW ’17, page 1271–1279, Republic and Canton of Geneva, CHE. 第26回world wide web国際会議の議事録 www ’17, page 1271–1279, republic and canton of geneva, che. (英語) 0.79
International World Wide Web Conferences Steering Committee. International World Wide Web Conferences Steering Committee(英語) 0.84
Chengjin Xu, Mojtaba Nayyeri, Fouad Alkhoury, Jens Lehmann, and Hamed Shariat Yazdi. Chengjin Xu, Mojtaba Nayyeri, Fouad Alkhoury, Jens Lehmann, Hamed Shariat Yazdi 0.64
2019. Temporal knowledge graph embedding model based on additive time series decomposition. 2019. 加法的時系列分解に基づく時間知識グラフ埋め込みモデル 0.76
arXiv preprint arXiv:1911.07893. arXiv preprint arXiv:1911.07893 0.71
Chengjin Xu, Mojtaba Nayyeri, Fouad Alkhoury, Hamed Shariat Yazdi, and Jens Lehmann. Chengjin Xu, Mojtaba Nayyeri, Fouad Alkhoury, Hamed Shariat Yazdi, Jens Lehmann。 0.70
2020a. TeRo: A time-aware knowledge graph embedding In Proceedings of the 28th via temporal rotation. 2020a tero: time-aware knowledge graph embedded in proceedings of the 28th via temporal rotation。 0.77
International Conference on Computational Linguistics, pages 1583–1593, Barcelona, Spain (Online). International Conference on Computational Linguistics, page 1583–1593, Barcelona, Spain (Online) 0.85
International Committee on Computational Linguistics. 計算言語学国際委員会委員。 0.69
Chengjin Xu, Mojtaba Nayyeri, Fouad Alkhoury, Hamed Shariat Yazdi, and Jens Lehmann. Chengjin Xu, Mojtaba Nayyeri, Fouad Alkhoury, Hamed Shariat Yazdi, Jens Lehmann。 0.70
2020b. Tero: A time-aware knowledge graph embedarXiv preprint ding via temporal arXiv:2010.01029. 2020年。 tero: time-aware knowledge graph embeddedarxiv preprint ding via temporal arxiv:2010.01029。 0.73
rotation. Bishan Yang, Scott Wen-tau Yih, Xiaodong He, Jianfeng Gao, and Li Deng. 回転 Bishan Yang, Scott Wen-tau Yih, Xiaodong He, Jianfeng Gao, Li Deng 0.60
2015. Embedding entities and relations for learning and inference in knowledge bases. 2015. 知識ベースにおける学習と推論のための実体と関係を埋め込みます。 0.78
In Proceedings of the International Conference on Learning Representations (ICLR) 2015. ICLR(International Conference on Learning Representations) 2015に参加して 0.73
Xiao Yu, Xiang Ren, Yizhou Sun, Quanquan Gu, Bradley Sturt, Urvashi Khandelwal, Brandon Norick, and Jiawei Han. Xiao Yu, Xiang Ren, Yizhou Sun, Quanquan Gu, Bradley Sturt, Urvashi Khandelwal, Brandon Norick, Jiawei Han 0.74
2014. Personalized entity recommendation: A heterogeneous information netIn Proceedings of the 7th ACM work approach. 2014. パーソナライズされたエンティティレコメンデーション: 異種情報ネット 第7次ACM作業アプローチの証明。 0.77
International Conference on Web Search and Data Mining, WSDM ’14, page 283–292, New York, NY, USA. International Conference on Web Search and Data Mining, WSDM ’14, page 283–292, New York, NY, USA. 0.92
Association for Computing Machinery. アソシエーション・フォー・コンピューティング・マシンズ(Association for Computing Machinery)の略。 0.36
Fuzheng Zhang, Nicholas Jing Yuan, Defu Lian, Xing Xie, and Wei-Ying Ma. Fuzheng Zhang、Nicholas Jing Yuan、Defu Lian、Xing Xie、Wei-Ying Ma。 0.69
2016. Collaborative knowledge base embedding for recommender systems. 2016. 推薦システムのための協調的知識ベース埋め込み。 0.75
In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD ’16, page 353–362, New York, NY, USA. 第22回ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD ’16, page 353–362, New York, NY, USA
訳抜け防止モード: 22th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining に参加して KDD ' 16, page 353–362, New York, NY, USA.
0.86
Association for Computing Machinery. アソシエーション・フォー・コンピューティング・マシンズ(Association for Computing Machinery)の略。 0.36
Shuai Zhang, Yi Tay, Lina Yao, and Qi Liu. Shuai Zhang, Yi Tay, Lina Yao, Qi Liu 0.63
2019. arXiv 2019年arxiv 0.52
Quaternion knowledge graph embedding. 四元数知識グラフの埋め込み。 0.62
preprint arXiv:1904.10281. arXiv:1904.10281 0.64
Chang Zhou, Yuqiong Liu, Xiaofei Liu, Zhongyi Liu, and Jun Gao. 長周、ユキョン・リウ、Xiaofei Liu、Zhongyi Liu、Jun Gao。 0.70
2017. Scalable graph embedding for asymmetric proximity. 2017. 非対称近傍に対するスケーラブルグラフ埋め込み 0.81
Proceedings of the AAAI Conference on Artificial Intelligence, 31(1). aaai conference on artificial intelligence, 31(1) 参加報告 0.56
A Appendices A.1 ATTH versus HERCULES We plot the absolute difference in curvatures between ATTH and HERCULES for dim = 40 on ICEWS05-15 in Fig 6. A Appendices A.1 ATTH vs HERCULES 我々は、図6のICEWS05-15でdim = 40のATTHとHERCULESの曲率の絶対差をプロットする。 0.76
As in ICEWS14 dataset, we observe that learned geometries on ICEWS15 dataset by ATTH and HERCULES are alike. ICEWS14データセットと同様に、ATTHとHERCULESによるICEWS15データセットの学習ジオメトリも同様である。 0.77
Time is showing insubstantial impact on the curvature. 時間は曲率に不安定な影響を示している。 0.58
英語(論文から抽出)日本語訳スコア
A.3 HERCULES versus HERCULES We report the dissimilarities in curvature for different relations and timestamps on ICEWS14 and ICEWS05-15 in Fig 8 and Fig 9. A.3 HERCULES vs HERCULES 我々は,Fig 8 および Fig 9 におけるICEWS14 および ICEWS05-15 上の異なる関係およびタイムスタンプの曲率の相違について報告する。 0.67
Figure 6: Absolute curvatures differences between ATTH and HERCULES given specific relation and time on ICEWS05-15 dataset (dim = 40). 図6: ICEWS05-15データセット(dim = 40)に特定の関係と時間を与えるATTHとHERCULESの絶対曲率の違い。 0.76
A.2 ATTH versus ATTH A.2 ATTH対ATTH 0.74
We inspect how the curvature of ATTH fluctuates while increasing the embedding dimension. 埋め込み寸法を増大させながらATTHの曲率がどのように変動するかを調べる。 0.51
We compare curvatures shifts between dim = 40 and dim = 100. dim = 40 と dim = 100 の間の曲率シフトを比較する。 0.81
We plot ∆c in Fig 7. 図7にcをプロットします。 0.65
Figure 8: Absolute curvatures differences of HERCULES between dim = 40 and dim = 100 given specific relation and time on ICEWS14 dataset. 図8: 絶対曲率 HERCULES の dm = 40 と dim = 100 の差は、ICEWS14 データセット上の特定の関係と時間によって与えられる。 0.75
Figure 9: Absolute curvatures differences of HERCULES between dim = 40 and dim = 100 given specific relation and time on ICEWS05-15 dataset. 図9: 絶対曲率 HERCULES の dm = 40 と dim = 100 の差は、ICEWS05-15 データセット上の特定の関係と時間によって与えられる。 0.70
We note that around 87.7% and 91.1% of variations are smaller than 0.1 on ICEWS14 and ICEWS05-15 respectively. ICEWS14 とICEWS05-15 でそれぞれ 0.1 よりも 87.7% と 91.1% が小さいことに留意する。 0.70
This seems to indicate that despite the dimensionality gap, the learned geometry for each relation does not differ much between dim = 40 and dim = 100. これは次元差があるにもかかわらず、各関係の学習幾何は dim = 40 と dim = 100 とはあまり変わらないことを示している。 0.83
A.4 Two-Dimensional Hyperbolic Embeddings A.4 二次元双曲 埋め込み 0.46
We give an illustration of learned embeddings on ICEWS05-15 by ATTH and HERCULES models in Fig. figのatthおよびherculesモデルによるicews05-15における学習埋め込みの例を示す。 0.72
10. Figure 7: Absolute curvatures differences of ATTH between dim = 40 and dim = 100 given specific relation and time on ICEWS14 dataset (left) and ICEWS05-15 dataset (right). 10. 図7: 絶対曲率 ICEWS14データセット(左)とICEWS05-15データセット(右)で特定の関係と時間を与えられた dim = 40 と dim = 100 の違い。 0.84
No timestamps since ATTH is a timeunaware model. ATTH以降のタイムスタンプは、タイムナウェアモデルではない。 0.59
The fluctuation in curvature is moderate while dimension of embeddings increases. 曲率の変動は中程度であり、埋め込みの次元は増加する。 0.63
We can see that variation is almost inferior to 0.2. ばらつきは0.2よりもほとんど劣っていることが分かる。 0.64
This underlines that geometry does not change much for a specific relation when the dimension grows. これは、次元が大きくなると、幾何学は特定の関係に対してあまり変化しないことを示す。 0.55
For some relations, we note however that curvature is knowing significant dissimilitudes. しかし、いくつかの関係では、曲がりくねりは大きな不同性を知っていることに注意する。 0.42
TimestampsRelations0 .00.20.40.60.81.01.2 1.41.6cRelations0.05 0.100.150.20cRelatio ns0.050.100.150.200. 25cTimestampsRelatio ns0.00.20.40.60.81.0 cTimestampsRelations 0.10.20.30.40.50.60. 7c timetampsrelations0. 00.20.40.61.01.41.41 .6crelations0.050.10 0.150.20crelations0. 050.100.150.200.25ct imestampsrelations0. 00.20.40.61.0ctimest ampsrelations0.10.20 .30.40.60.7c 0.03
英語(論文から抽出)日本語訳スコア
Figure 10: Illustration of two-dimensional hyperbolic embeddings learned by ATTH (top) and HERCULES (bottom) on ICEWS05-15. 図10:atth(トップ)とhercules(ボット)がicews05-15で学んだ2次元双曲的埋め込みのイラスト。 0.65
0.20.00.20.30.20.10. 00.10.20.30.20.10.00 .10.20.20.10.00.10.2 0.20.00.20.30.20.10. 00.10.20.30.20.10.00 .10.20.20.10.00.10.2 0.06
                           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。