論文の概要、ライセンス

# (参考訳) グラフ上のホークス過程 [全文訳有]

Hawkes Processes on Graphons ( http://arxiv.org/abs/2102.02741v1 )

ライセンス: CC BY 4.0
Hongteng Xu and Dixin Luo and Hongyuan Zha(参考訳) 基礎となる空間を共有し、同じ生成機構に従う異種イベント型を持つ複数の多変量点プロセスをモデル化するための新しいフレームワークを提案する。 グラガー因果グラフに関連付けられたホークス過程とその変種に着目して、我々のモデルは可算なイベント型空間を利用して、非パラメトリックなモデル {\it graphon} から異なる大きさのグラフをサンプリングする。 これらのグラフが与えられたら、対応するホークスプロセスを生成し、イベントシーケンスをシミュレートできる。 このグラフオンベースのホークスプロセスモデルを学ぶことは、1)異なるホークスプロセスが共有する基礎となる関係を推測するのに役立ち、2)異なるイベントタイプを持つイベントシーケンスをシミュレートする。 本研究では,生成した事象列と観測された事象列の階層的最適移動距離を最小化し,新たな報奨最大推定法を提案する。 モデルの特性を深く分析し、理論と実験の両方でその合理性と有効性を実証します。

We propose a novel framework for modeling multiple multivariate point processes, each with heterogeneous event types that share an underlying space and obey the same generative mechanism. Focusing on Hawkes processes and their variants that are associated with Granger causality graphs, our model leverages an uncountable event type space and samples the graphs with different sizes from a nonparametric model called {\it graphon}. Given those graphs, we can generate the corresponding Hawkes processes and simulate event sequences. Learning this graphon-based Hawkes process model helps to 1) infer the underlying relations shared by different Hawkes processes; and 2) simulate event sequences with different event types but similar dynamics. We learn the proposed model by minimizing the hierarchical optimal transport distance between the generated event sequences and the observed ones, leading to a novel reward-augmented maximum likelihood estimation method. We analyze the properties of our model in-depth and demonstrate its rationality and effectiveness in both theory and experiments.
公開日: Thu, 4 Feb 2021 17:09:50 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
Hongteng Xu 1 2 Dixin Luo 3 Hongyuan Zha 4 Hongteng Xu 1 2 Dixin Luo 3 Hongyuan Zha 4。 0.89
1 2 0 2 b e F 4 1 2 0 2 b e F 4 0.85
] G L . ] G L。 0.79
s c [ 1 v 1 4 7 2 0 sc [ 1 v 1 4 7 2 0 0.68
. 2 0 1 2 : v i X r a . 2 0 1 2 : v i X r a 0.85
Abstract We propose a novel framework for modeling multiple multivariate point processes, each with heterogeneous event types that share an underlying space and obey the same generative mechanism. 概要 基礎となる空間を共有し、同じ生成機構に従う異種イベント型を持つ複数の多変量点プロセスをモデル化するための新しいフレームワークを提案する。 0.63
Focusing on Hawkes processes and their variants that are associated with Granger causality graphs, our model leverages an uncountable event type space and samples the graphs with different sizes from a nonparametric model called graphon. グラガー因果グラフに関連付けられたホークス過程とその変種に着目して、我々のモデルは未可の事象型空間を利用し、グラフロンと呼ばれる非パラメトリックモデルから異なる大きさのグラフをサンプリングする。 0.70
Given those graphs, we can generate the corresponding Hawkes processes and simulate event sequences. これらのグラフが与えられたら、対応するホークスプロセスを生成し、イベントシーケンスをシミュレートできる。 0.65
Learning this graphon-based Hawkes process model helps to 1) infer the underlying relations shared by different Hawkes processes; and 2) simulate event sequences with different event types but similar dynamics. このグラフオンベースのホークスプロセスモデルを学ぶことは、1)異なるホークスプロセスが共有する基礎となる関係を推測するのに役立ち、2)異なるイベントタイプを持つイベントシーケンスをシミュレートする。 0.67
We learn the proposed model by minimizing the hierarchical optimal transport distance between the generated event sequences and the observed ones, leading to a novel reward-augmented maximum likelihood estimation method. 本研究では,生成した事象列と観測された事象列の階層的最適移動距離を最小化し,新たな報奨最大推定法を提案する。 0.75
We analyze the properties of our model in-depth and demonstrate its rationality and effectiveness in both theory and experiments. モデルの特性を深く分析し、理論と実験の両方でその合理性と有効性を実証します。 0.78
1. Introduction As a powerful statistical tool, Hawkes process (Hawkes, 1971) has been widely used to model event sequences in the continuous-time domain. 1. 導入 強力な統計ツールとして、ホークス過程 (Hawkes, 1971) は連続時間領域における事象列のモデル化に広く用いられている。 0.80
Suppose that we have an event sequence {(ti, vi) ∈ [0, T ] × V}N i=1, where [0, T ] is the observation time window, V is the set of event types, and (ti, vi) is the i-th event at time ti with type vi. 事象列 {(ti, vi) ∈ [0, T ] × V}N i=1 があると仮定し、ここで [0, T ] は観測時間ウィンドウであり、V はイベント型の集合であり、(ti, vi) は型 vi を持つ時間 ti の i 番目のイベントである。 0.86
Equivalently, we can represent the sequence by a counting process N (t) = {Nv(t)}v∈V, where Nv(t) is the number of the type-v events till time t. A Hawkes process characterizes 同様に、カウントプロセス N (t) = {Nv(t)}v∈V でシーケンスを表現できる。ここで Nv(t) は時間 t までの型-v イベントの数である。
訳抜け防止モード: 等しく、この列を数える過程 N ( t ) = { Nv(t)}v・V で表すことができる。 where Nv(t ) is the number of the type - v events until time t. A Hawkes process characterizes
0.87
1Gaoling School of Artificial Intelligence, Renmin University of China, Beijing, China 2Beijing Key Laboratory of Big Data Management and Analysis Methods, Beijing, China 3School of Computer Science and Technology, Beijing Institute of Technology, Beijing, China 4School of Data Science, Shenzhen Research Institute of Big Data, The Chinese University of Hong Kong, Shenzhen, China. 1gaoling school of artificial intelligence, renmin university of china, beijing, china 2beijing key laboratory of big data management and analysis methods, beijing, china 3school of computer science and technology, beijing institute of technology, beijing, china 4school of data science, shenzhen research institute of big data, the chinese university of hong kong, shenzhen, china, shenzhen, china. (中国) 0.88
Correspondence to: Dixin Luo <dixin.luo@bit.edu.cn >. Dixin Luo <dixin.luo@bit.edu.cn > 0.81
Figure 1. An illustration of the Hawkes processes on a graphon. 図1。 ホークスのイラストは、グラフェンで処理します。 0.60
the expected instantaneous rate of occurrence of the type-v event at time t by a conditional intensity function (Liniger, 2009): for v ∈ V and t ∈ [0, T ], v ∈ V と t ∈ [0, T ] に対して、条件的強度関数 (Liniger, 2009) による t における型-v イベントの発生の即刻の速度 0.79
E[dNv(t)|Ht] E[dNv(t)|Ht] 0.94
dt φvvi(t, ti). dt φvvi(t, ti)。 0.87
= µv + (cid:88)ti<t = μv + (cid:88)ti<t 0.90
(1) λv(t) := Here, Ht = {(ti, vi)|ti < t} contains the past events till time t. µv ≥ 0 is the base rate of type-v event. 1) λv(t) := ここで、Ht = {(ti, vi)|ti < t} は時間 t までの過去の事象を含む。
訳抜け防止モード: ( 1 ) λv(t ) : = ここで、Ht = { ( ti, vi)|ti < t } は過去のイベントを含む。 t. μv ≥ 0 はタイプ - v イベントのベースレートである。
0.86
{φvv(cid:48)(t, t(cid:48)) ≥ 0}v,v(cid:48)∈V,t(cid:48)<t are the so called impact functions, and φvv(cid:48)(t, t(cid:48)) quantifies the influence of the type-v(cid:48) event at time t(cid:48) on the type-v event at time t. Accordingly, (cid:80)ti<t φvvi(t, ti) accumulates the impacts of the past events. φv(cid:48)(t, t(cid:48)) ≥ 0}v,v(cid:48) ,t(cid:48)<t はいわゆる影響関数であり、φv(cid:48)(t, t(cid:48)) は時刻 t(cid:48) におけるタイプ-v(cid:48) イベントが時刻 t におけるタイプ-v イベントに与える影響を定量化する。 0.81
The set of impact functions gives rise to the Granger causality graph of the event types (Eichler et al., 2017; Xu et al., 2016a), denoted as G(V,E) — an edge v(cid:48) → v ∈ E means that a past type-v(cid:48) event can trigger the occurrence of a type-v event in the future, and v(cid:48) → v /∈ E if and only if φvv(cid:48)(t, t(cid:48)) ≡ 0. Eichler et al., 2017; Xu et al., 2016a) は G(V, E) — a edge v(cid:48) → v ∈ E は過去の型-v(cid:48) イベントが将来型-v イベントの発生を引き起こすことができることを意味し、v(cid:48) → v /∈ E は φvv(cid:48)(t, t(cid:48) である。
訳抜け防止モード: インパクト関数のセットは、イベントタイプのグランジャー因果関係グラフ(Eichler et al ., 2017 ; Xu et al ., 2016a )を生み出します。 G(V, E ) — エッジ v(cid:48 ) → v ∈ E は、過去の型 v(cid:48 ) イベントが将来型 v イベントの発生を引き起こすことができることを意味する。 そして、v(cid:48 ) → v /∈ E if and only if φvv(cid:48)(t, t(cid:48 ) は 0 である。
0.88
Hawkes process, together with the corresponding Granger causality graph of event types, has become instrumental for many applications involving event sequences, such as social network modeling (Farajtabar et al., 2017) and financial data analysis (Bacry et al., 2015). Hawkesプロセスは、対応するイベントタイプのGranger因果関係グラフとともに、ソーシャルネットワークモデリング(Farajtabar et al., 2017)や金融データ分析(Bacry et al., 2015)などのイベントシーケンスを含む多くのアプリケーションに役立っています。 0.81
Interestingly, even with recent models enhancing Hawkes processes with deep neural networks (Mei & Eisner, 2017; Zhang et al., 2020; Zuo et al., 2020), the work in (Tank et al., 2018) shows that the group sparsity of their neural networks’ parameters can still be interpreted by Granger causality of the event types. 興味深いことに、最近のモデルがディープニューラルネットワークによるホークスプロセスの強化(Mei & Eisner, 2017; Zhang et al., 2020; Zuo et al., 2020)であっても、(Tank et al., 2018)の作業は、ニューラルネットワークのパラメータのグループスパースが、イベントタイプのGranger因果関係によって解釈できることを示しています。 0.75
Despite achieving many successes, the applications of the Hawkes-related processes are limited for homogeneous scenarios in which all the event sequences are generated by one point process defined on a known set of event types. 多くの成功にもかかわらず、ホークス関連プロセスの応用は、すべてのイベントシーケンスが既知のイベントタイプの集合上で定義された一点プロセスによって生成される均質なシナリオに限られている。 0.72
Although some methods consider learning multiple point processes for the sequences in different clusters (Luo et al., 異なるクラスタ(luoなど)のシーケンスに対する多重点過程の学習について検討する手法もある。 0.76
GraphonSequence 1Sequence 2Sequence N::::TimeTimeTime< ;latexit sha1_base64="nGxPqwHs8/icA8AbOuLc YNVjE/s=">AAAB7HicbVBNS8NAEJ3U r1q/qh69LBahp5KIosei F48VTFtoQ9lsJ+3SzSbsboQS+hu8eFDEqz/Im//GbZuDV h8MPN6bYWZemAqujet+OaW19Y3NrfJ2ZWd3b/+genjU1kmmGPosEYnqhlS j4BJ9w43AbqqQxqHATji 5nfudR1SaJ/LBTFMMYjq SPOKMGiv5/Rs+qg+qNbfhLkD+Eq8gNSjQGlQ/+8OEZTFKwwTVuue5qQlyq gxnAmeVfqYxpWxCR9izV NIYdZAvjp2RM6sMSZQoW 9KQhfpzIqex1tM4tJ0xN WO96s3F/7xeZqLrIOcyz QxKtlwUZYKYhMw/J0Ouk BkxtYQyxe2thI2poszYf Co2BG/15b+kfd7wLhvu/UWt2SziKMM JnEIdPLiCJtxBC3xgwOE JXuDVkc6z8+a8L1tLTjFzDL/gfHwDL6 GORA==</latexit>⇣<latexit sha1_base64="VQjut4+CUxlaT//sV0kqn4cquCo =">AAAB7HicbVBNS8NAEJ3U r1q/qh69LBZBLyURRY9F Lx4rGFtoQ9lsN+3SzSbsToQS+hu8eFDEqz/Im//GbZuDt j4YeLw3w8y8MJXCoOt+O6WV1bX1jfJmZWt7Z3ev un/waJJMM+6zRCa6HVLDpVDcR4GSt1 PNaRxK3gpHt1O/9cS1EY l6wHHKg5gOlIgEo2glv3 sjBme9as2tuzOQZeIVpA YFmr3qV7efsCzmCpmkxn Q8N8UgpxoFk3xS6WaGp5 SN6IB3LFU05ibIZ8dOyI lV+iRKtC2FZKb+nshpbMw4Dm1nTHFoFr2p +J/XyTC6DnKh0gy5YvNFU SYJJmT6OekLzRnKsSWUa WFvJWxINWVo86nYELzFl 5fJ43ndu6y79xe1RqOIo wxHcAyn4MEVNOAOmuADA wHP8ApvjnJenHfnY95ac oqZQ/gD5/MHMSWORQ==</latexit>⌘<latexit sha1_base64="nGxPqwHs8/icA8AbOuLc YNVjE/s=">AAAB7HicbVBNS8NAEJ3U r1q/qh69LBahp5KIosei F48VTFtoQ9lsJ+3SzSbsboQS+hu8eFDEqz/Im//GbZuDV h8MPN6bYWZemAqujet+OaW19Y3NrfJ2ZWd3b/+genjU1kmmGPosEYnqhlS j4BJ9w43AbqqQxqHATji 5nfudR1SaJ/LBTFMMYjq SPOKMGiv5/Rs+qg+qNbfhLkD+Eq8gNSjQGlQ/+8OEZTFKwwTVuue5qQlyq gxnAmeVfqYxpWxCR9izV NIYdZAvjp2RM6sMSZQoW 9KQhfpzIqex1tM4tJ0xN WO96s3F/7xeZqLrIOcyz QxKtlwUZYKYhMw/J0Ouk BkxtYQyxe2thI2poszYf Co2BG/15b+kfd7wLhvu/UWt2SziKMM JnEIdPLiCJtxBC3xgwOE JXuDVkc6z8+a8L1tLTjFzDL/gfHwDL6 GORA==</latexit>⇣<latexit sha1_base64="VQjut4+CUxlaT//sV0kqn4cquCo =">AAAB7HicbVBNS8NAEJ3U r1q/qh69LBZBLyURRY9F Lx4rGFtoQ9lsN+3SzSbsToQS+hu8eFDEqz/Im//GbZuDt j4YeLw3w8y8MJXCoOt+O6WV1bX1jfJmZWt7Z3ev un/waJJMM+6zRCa6HVLDpVDcR4GSt1 PNaRxK3gpHt1O/9cS1EY l6wHHKg5gOlIgEo2glv3 sjBme9as2tuzOQZeIVpA YFmr3qV7efsCzmCpmkxn Q8N8UgpxoFk3xS6WaGp5 SN6IB3LFU05ibIZ8dOyI lV+iRKtC2FZKb+nshpbMw4Dm1nTHFoFr2p +J/XyTC6DnKh0gy5YvNFU SYJJmT6OekLzRnKsSWUa WFvJWxINWVo86nYELzFl 5fJ43ndu6y79xe1RqOIo wxHcAyn4MEVNOAOmuADA wHP8ApvjnJenHfnY95ac oqZQ/gD5/MHMSWORQ==</latexit>⌘<latexit sha1_base64="nGxPqwHs8/icA8AbOuLc YNVjE/s=">AAAB7HicbVBNS8NAEJ3U r1q/qh69LBahp5KIosei F48VTFtoQ9lsJ+3SzSbsboQS+hu8eFDEqz/Im//GbZuDV h8MPN6bYWZemAqujet+OaW19Y3NrfJ2ZWd3b/+genjU1kmmGPosEYnqhlS j4BJ9w43AbqqQxqHATji 5nfudR1SaJ/LBTFMMYjq SPOKMGiv5/Rs+qg+qNbfhLkD+Eq8gNSjQGlQ/+8OEZTFKwwTVuue5qQlyq gxnAmeVfqYxpWxCR9izV NIYdZAvjp2RM6sMSZQoW 9KQhfpzIqex1tM4tJ0xN WO96s3F/7xeZqLrIOcyz QxKtlwUZYKYhMw/J0Ouk BkxtYQyxe2thI2poszYf Co2BG/15b+kfd7wLhvu/UWt2SziKMM JnEIdPLiCJtxBC3xgwOE JXuDVkc6z8+a8L1tLTjFzDL/gfHwDL6 GORA==</latexit>⇣<latexit sha1_base64="VQjut4+CUxlaT//sV0kqn4cquCo =">AAAB7HicbVBNS8NAEJ3U r1q/qh69LBZBLyURRY9F Lx4rGFtoQ9lsN+3SzSbsToQS+hu8eFDEqz/Im//GbZuDt j4YeLw3w8y8MJXCoOt+O6WV1bX1jfJmZWt7Z3ev un/waJJMM+6zRCa6HVLDpVDcR4GSt1 PNaRxK3gpHt1O/9cS1EY l6wHHKg5gOlIgEo2glv3 sjBme9as2tuzOQZeIVpA YFmr3qV7efsCzmCpmkxn Q8N8UgpxoFk3xS6WaGp5 SN6IB3LFU05ibIZ8dOyI lV+iRKtC2FZKb+nshpbMw4Dm1nTHFoFr2p +J/XyTC6DnKh0gy5YvNFU SYJJmT6OekLzRnKsSWUa WFvJWxINWVo86nYELzFl 5fJ43ndu6y79xe1RqOIo wxHcAyn4MEVNOAOmuADA wHP8ApvjnJenHfnY95ac oqZQ/gD5/MHMSWORQ==</latexit>⌘HPHPHPEvent type spaceEvent type spaceEvent type space GraphonSequence 1Sequence 2Sequence N::::TimeTimeTime< ;latexit sha1_base64="nGxPqwHs8/icA8AbOuLc YNVjE/s=">AAAB7HicbVBNS8NAEJ3U r1q/qh69LBahp5KIosei F48VTFtoQ9lsJ+3SzSbsboQS+hu8eFDEqz/Im//GbZuDV h8MPN6bYWZemAqujet+OaW19Y3NrfJ2ZWd3b/+genjU1kmmGPosEYnqhlS j4BJ9w43AbqqQxqHATji 5nfudR1SaJ/LBTFMMYjq SPOKMGiv5/Rs+qg+qNbfhLkD+Eq8gNSjQGlQ/+8OEZTFKwwTVuue5qQlyq gxnAmeVfqYxpWxCR9izV NIYdZAvjp2RM6sMSZQoW 9KQhfpzIqex1tM4tJ0xN WO96s3F/7xeZqLrIOcyz QxKtlwUZYKYhMw/J0Ouk BkxtYQyxe2thI2poszYf Co2BG/15b+kfd7wLhvu/UWt2SziKMM JnEIdPLiCJtxBC3xgwOE JXuDVkc6z8+a8L1tLTjFzDL/gfHwDL6 GORA==</latexit>⇣<latexit sha1_base64="VQjut4+CUxlaT//sV0kqn4cquCo =">AAAB7HicbVBNS8NAEJ3U r1q/qh69LBZBLyURRY9F Lx4rGFtoQ9lsN+3SzSbsToQS+hu8eFDEqz/Im//GbZuDt j4YeLw3w8y8MJXCoOt+O6WV1bX1jfJmZWt7Z3ev un/waJJMM+6zRCa6HVLDpVDcR4GSt1 PNaRxK3gpHt1O/9cS1EY l6wHHKg5gOlIgEo2glv3 sjBme9as2tuzOQZeIVpA YFmr3qV7efsCzmCpmkxn Q8N8UgpxoFk3xS6WaGp5 SN6IB3LFU05ibIZ8dOyI lV+iRKtC2FZKb+nshpbMw4Dm1nTHFoFr2p +J/XyTC6DnKh0gy5YvNFU SYJJmT6OekLzRnKsSWUa WFvJWxINWVo86nYELzFl 5fJ43ndu6y79xe1RqOIo wxHcAyn4MEVNOAOmuADA wHP8ApvjnJenHfnY95ac oqZQ/gD5/MHMSWORQ==</latexit>⌘<latexit sha1_base64="nGxPqwHs8/icA8AbOuLc YNVjE/s=">AAAB7HicbVBNS8NAEJ3U r1q/qh69LBahp5KIosei F48VTFtoQ9lsJ+3SzSbsboQS+hu8eFDEqz/Im//GbZuDV h8MPN6bYWZemAqujet+OaW19Y3NrfJ2ZWd3b/+genjU1kmmGPosEYnqhlS j4BJ9w43AbqqQxqHATji 5nfudR1SaJ/LBTFMMYjq SPOKMGiv5/Rs+qg+qNbfhLkD+Eq8gNSjQGlQ/+8OEZTFKwwTVuue5qQlyq gxnAmeVfqYxpWxCR9izV NIYdZAvjp2RM6sMSZQoW 9KQhfpzIqex1tM4tJ0xN WO96s3F/7xeZqLrIOcyz QxKtlwUZYKYhMw/J0Ouk BkxtYQyxe2thI2poszYf Co2BG/15b+kfd7wLhvu/UWt2SziKMM JnEIdPLiCJtxBC3xgwOE JXuDVkc6z8+a8L1tLTjFzDL/gfHwDL6 GORA==</latexit>⇣<latexit sha1_base64="VQjut4+CUxlaT//sV0kqn4cquCo =">AAAB7HicbVBNS8NAEJ3U r1q/qh69LBZBLyURRY9F Lx4rGFtoQ9lsN+3SzSbsToQS+hu8eFDEqz/Im//GbZuDt j4YeLw3w8y8MJXCoOt+O6WV1bX1jfJmZWt7Z3ev un/waJJMM+6zRCa6HVLDpVDcR4GSt1 PNaRxK3gpHt1O/9cS1EY l6wHHKg5gOlIgEo2glv3 sjBme9as2tuzOQZeIVpA YFmr3qV7efsCzmCpmkxn Q8N8UgpxoFk3xS6WaGp5 SN6IB3LFU05ibIZ8dOyI lV+iRKtC2FZKb+nshpbMw4Dm1nTHFoFr2p +J/XyTC6DnKh0gy5YvNFU SYJJmT6OekLzRnKsSWUa WFvJWxINWVo86nYELzFl 5fJ43ndu6y79xe1RqOIo wxHcAyn4MEVNOAOmuADA wHP8ApvjnJenHfnY95ac oqZQ/gD5/MHMSWORQ==</latexit>⌘<latexit sha1_base64="nGxPqwHs8/icA8AbOuLc YNVjE/s=">AAAB7HicbVBNS8NAEJ3U r1q/qh69LBahp5KIosei F48VTFtoQ9lsJ+3SzSbsboQS+hu8eFDEqz/Im//GbZuDV h8MPN6bYWZemAqujet+OaW19Y3NrfJ2ZWd3b/+genjU1kmmGPosEYnqhlS j4BJ9w43AbqqQxqHATji 5nfudR1SaJ/LBTFMMYjq SPOKMGiv5/Rs+qg+qNbfhLkD+Eq8gNSjQGlQ/+8OEZTFKwwTVuue5qQlyq gxnAmeVfqYxpWxCR9izV NIYdZAvjp2RM6sMSZQoW 9KQhfpzIqex1tM4tJ0xN WO96s3F/7xeZqLrIOcyz QxKtlwUZYKYhMw/J0Ouk BkxtYQyxe2thI2poszYf Co2BG/15b+kfd7wLhvu/UWt2SziKMM JnEIdPLiCJtxBC3xgwOE JXuDVkc6z8+a8L1tLTjFzDL/gfHwDL6 GORA==</latexit>⇣<latexit sha1_base64="VQjut4+CUxlaT//sV0kqn4cquCo =">AAAB7HicbVBNS8NAEJ3U r1q/qh69LBZBLyURRY9F Lx4rGFtoQ9lsN+3SzSbsToQS+hu8eFDEqz/Im//GbZuDt j4YeLw3w8y8MJXCoOt+O6WV1bX1jfJmZWt7Z3ev un/waJJMM+6zRCa6HVLDpVDcR4GSt1 PNaRxK3gpHt1O/9cS1EY l6wHHKg5gOlIgEo2glv3 sjBme9as2tuzOQZeIVpA YFmr3qV7efsCzmCpmkxn Q8N8UgpxoFk3xS6WaGp5 SN6IB3LFU05ibIZ8dOyI lV+iRKtC2FZKb+nshpbMw4Dm1nTHFoFr2p +J/XyTC6DnKh0gy5YvNFU SYJJmT6OekLzRnKsSWUa WFvJWxINWVo86nYELzFl 5fJ43ndu6y79xe1RqOIo wxHcAyn4MEVNOAOmuADA wHP8ApvjnJenHfnY95ac oqZQ/gD5/MHMSWORQ==</latexit>⌘HPHPHPEvent type spaceEvent type spaceEvent type space 0.10
英語(論文から抽出)日本語訳スコア
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
2015; Xu & Zha, 2017) or time periods (Lin et al., 2016; Alaa et al., 2017), they still maintain a single set of event types. 2015年、Xu & Zha, 2017)、または、期間(Lin et al., 2016; Alaa et al., 2017)は、イベントタイプの単一のセットを維持している。 0.88
This setting, however, is in conflict with the heterogeneous nature of many real-world event sequences — the event types are often sampled from an underlying event type space, and new sequences are driven by the latent sampling process and are generated with event types unobserved before. しかし、この設定は、多くの現実世界のイベントシーケンスの異種性と矛盾している — イベントタイプは、基礎となるイベントタイプスペースからサンプリングされ、新しいシーケンスは潜在的なサンプリングプロセスによって駆動され、以前には観測できなかったイベントタイプで生成される。 0.71
Accordingly, for different event sequences, their point processes are defined with different event types, and thus, obey different generative mechanisms. したがって、異なるイベントシーケンスでは、それぞれのポイントプロセスは異なるイベントタイプで定義され、異なる生成メカニズムに従う。 0.79
We illustrate this phenomenon via event sequences defined on networks. この現象をネットワーク上で定義されたイベントシーケンスで説明します。 0.63
Social networks. ソーシャルネットワーク。 0.71
Users of different networks, e.g., Facebook and Twitter, are actually sampled from the same underlying populations (i.e., all the Internet users in the world). 異なるネットワーク(例えばFacebookやTwitter)のユーザーは、実際には同じ根底にある集団(すなわち、世界のすべてのインターネットユーザー)からサンプリングされる。 0.79
When using Hawkes processes to model the user behaviors on those different networks (Blundell et al., 2012; Zhou et al., 2013; Zhao et al., 2015), the respective users are considered as event types and their corresponding Granger causality graphs can be treated as different subgraphs sampled from a large latent graph for the whole population. これらの異なるネットワーク上でユーザ動作をモデル化するためにホークスプロセス(Blundell et al., 2012; Zhou et al., 2013; Zhao et al., 2015)を使用すると、各ユーザはイベントタイプと見なされ、対応するグランガー因果グラフは大きな潜伏グラフからサンプリングされた異なるサブグラフとして扱われる。 0.84
Additionally, with the entering of new users and the exiting of old ones, those networks are time-varying and their corresponding Hawkes processes at different time are different. さらに、新しいユーザーの入力と古いユーザーの終了に伴い、それらのネットワークは時間変動であり、対応するホークスプロセスは異なる時間です。 0.65
Patient admissions. For a patient suffering from several diseases, his admissions in a hospital over time are often assumed to be driven by the Granger causality graph of his diseases (i.e., disease graph), and thus, modeled by a Hawkes process (Xu et al., 2017). 患者受け入れ。 いくつかの疾患に苦しむ患者にとって、彼の入院期間は、しばしば彼の病気のグレンジャー因果関係グラフ(つまり病気グラフ)によって駆動され、したがってホークス過程(xu et al., 2017)によってモデル化される。 0.66
For patients with different profiles, even for the same patient in different age periods, their disease graphs and the corresponding Hawkes processes can be very different. 異なるプロファイルを持つ患者の場合、異なる年齢の同じ患者であっても、その病気のグラフと対応するホークスプロセスは非常に異なる場合があります。 0.79
The diseases appearing in each Hawkes process are sampled from the same set of diseases, e.g., the international classification of diseases (ICD), and each specific disease graph is a subgraph of an unknown graph constructed by all the diseases in the set. 各ホークス過程に現れる病気は、例えば国際疾患分類(ICD)などと同じ疾患群からサンプリングされ、それぞれの特定の疾患グラフは、セット内のすべての疾患によって構築された未知のグラフのサブグラフである。 0.80
Moreover, with the development of biomedical science, we may find new diseases and observe new admissions in the future. さらに, バイオメディカル・サイエンスの発展に伴い, 新たな疾患が発見され, 今後新たな入院が期待できる。 0.71
Besides these two typical examples, the sequential shopping behaviors on different platforms, the transactions of stocks in different markets, and the diffusion of a virus in different cities, etc., all these event sequences are heterogeneous, whose event types can better be modeled as samples from an underlying infinite even uncountable event type space. これら2つの典型的な例に加えて、異なるプラットフォームでのシーケンシャルなショッピング行動、異なる市場における株式の取引、異なる都市におけるウイルスの拡散など、これらすべてのイベントシーケンスは異質であり、そのイベントタイプは、基盤となる無限の偶数個のイベントタイプ空間からサンプルとしてモデル化することができる。 0.76
When modeling such event sequences, we need to learn a generative model for their point processes beyond just learning a single point process for each of them individually. このようなイベントシーケンスをモデリングする際には、それぞれのポイントプロセスを個別に学習するだけでなく、そのポイントプロセスの生成モデルを学ぶ必要があります。 0.79
To this end, we propose a new graphon-based Hawkes process (GHP). そこで本研究では,GHP(Graphon-based Hawkes Process)を提案する。 0.72
Essentially, our GHP is a hierarchical generative model for a collection of Hawkes processes with heterogeneous types (and their variants). 本質的に、我々のGHPはヘテロジニアス型(およびその変種)を持つホークス過程の集合の階層的生成モデルである。 0.76
As illustrated in Figure 1, it not only models the generative mechanisms of event sequences by Hawkes processes but also designs a 図1に示すように、ホークス過程によるイベントシーケンスの生成メカニズムをモデル化するだけでなく、aをデザインする。
訳抜け防止モード: 図1に示すように、ホークス過程によるイベントシーケンスの生成メカニズムをモデル化するだけでなく デザインもしました
0.81
graphon model (Lov´asz, 2012) to generate the event types of the different Hawkes processes from an uncountable event type space. graphonモデル (lov ́asz, 2012) は、さまざまなホークスプロセスのイベントタイプを非可算なイベント型空間から生成する。 0.84
By sampling the graphon, we generate the parameters of various Hawkes processes and simulate event sequences accordingly. グラフェンをサンプリングすることで、様々なホークスプロセスのパラメータを生成し、イベントシーケンスをシミュレートする。 0.79
Unlike existing Hawkes-related processes, our GHP model is able to generate different Hawkes processes with heterogeneous event types but similar dynamics. 既存のホークス関連プロセスとは異なり、我々のGHPモデルは異種事象型を持つ異なるホークスプロセスを生成することができる。 0.67
For more complicated point processes, we can extend our GHP model by leveraging neural networks and applying multi-dimensional graphons. より複雑なポイントプロセスでは、ニューラルネットワークを活用して多次元グラフーンを適用することで、GHPモデルを拡張できます。 0.62
Our GHP model is theoretically grounded: with mild assumptions, we demonstrate that for the generated Hawkes processes, the proposed model i) guarantees their stationarity; ii) ensures their parameters to be Lipschitz continuous; and iii) makes the difference between their corresponding event sequences bounded. 我々のghpモデルは理論的に根拠づけられている: 穏やかな仮定により、生成したホークス過程に対して、提案するモデル i) がそれらの定常性を保証すること、ii) パラメータがリプシッツ連続であることを保証すること、iii) 対応する事象列間の差をもたらすことを実証する。 0.65
These properties guarantee the stability of our GHP model when generating Hawkes processes and their event sequences. これらの特性は、ホークス過程とその事象列を生成する際のGHPモデルの安定性を保証する。 0.65
Learning GHP from observed heterogeneous event sequences requires us to infer and align the corresponding Hawkes processes with respect to the underlying graphon, for which traditional methods like maximum likelihood estimation are infeasible. 観測された異種事象シーケンスからGHPを学習するには、最大確率推定のような従来の手法では不可能である基礎となるグラフに関して、対応するホークス過程を推論し、整合させる必要があります。
訳抜け防止モード: 観測された異種事象列からのGHPの学習 基礎となるグラフに関して、対応するホークス過程を推論し、調整する必要があります。 最大推定のような従来の手法は 実現不可能です
0.62
To overcome this problem, we design a novel learning algorithm based on the reward-augmented maximum likelihood (RAML) estimation (Norouzi et al., 2016) and the hierarchical optimal transport (HOT) distance (Lee et al., 2019; Yurochkin et al., 2019). この課題を克服するために、報酬増加最大可能性(RAML)推定(Norouzi et al., 2016)と階層的最適輸送(HOT)距離(Lee et al., 2019; Yurochkin et al., 2019)に基づいて、新しい学習アルゴリズムを設計します。 0.87
In particular, given observed event sequences and those generated by our GHP model, we calculate the HOT distance between them and obtain an optimal transport matrix corresponding to their joint probabilities. 特に、観測されたイベントシーケンスとGHPモデルによって生成されたものを考えると、それらの間のHOT距離を計算し、関節の確率に応じた最適な輸送マトリックスを得ます。 0.66
The probabilities work as the rewards modulating the log-likelihood of each generated event sequence. 確率は、生成された各イベントシーケンスのログライク度を変調する報酬として動作する。 0.59
Taking the reward-augment log-likelihood as an objective, we estimate the parameters of GHP accordingly. 報酬増加ログの類似性を目標として,GHPのパラメータをそれに応じて推定する。 0.59
We verify the feasibility of our GHP model and its learning algorithm on both synthetic and real-world data. GHPモデルとその学習アルゴリズムの有効性を合成データと実世界データの両方で検証します。 0.80
When modeling sparse heterogeneous event sequences that have many event types but small number of events, our GHP model significantly mitigates the risk of over-fitting and thus outperforms other state-of-the-art point process models. イベントタイプが多種多種多種多種多様なイベントシーケンスをモデル化する場合、GHPモデルは過度に適合するリスクを著しく軽減し、その結果、他の最先端のプロセスモデルよりも優れる。 0.72
2. Graphon-based Hawkes Processes 2.1. 2. GraphonベースのHawkes Processes 2.1。 0.73
Generating Hawkes processes from a graphon グラフオンからのホークス生成過程 0.67
For a classic Hawkes process, we often parameterize its impact functions as {φvv(cid:48)(t, t(cid:48)) = avv(cid:48)η(t − t(cid:48))}v,v(cid:48)∈V, where the coefficient avv(cid:48) ≥ 0 and the decay kernel η(t) ≥ 0. 古典的なホークス過程において、その影響関数を {φvv(cid:48)(t, t(cid:48)) = avv(cid:48)(t − t(cid:48))}v,v(cid:48)∈V としてパラメータ化する。
訳抜け防止モード: 古典的なホークス過程では、しばしばその衝撃関数を { φvv(cid:48)(t,) としてパラメータ化する。 t(cid:48 ) ) = avv(cid:48)η(t − t(cid:48))}v, v(cid:48) guiv, ここで係数 avv(cid:48) ) ≥ 0 と減衰核 η(t ) ≥ 0 である。
0.79
The decay kernel is predefined, and its integral is D = (cid:82) ∞ 0 η(t)dt. 崩壊核は予め定義されており、その積分は d = (cid:82) ∞ 0 η(t)dt である。 0.76
Such a Hawkes process is denoted as HPV (µ, A), where V is the set of event types, µ = [µv] ∈ R|V| and A = [avv(cid:48)] ∈ R|V|×|V|. そのようなホークス過程は HPV (μ, A) と表され、V は事象型の集合であり、μ = [μv] ∈ R|V| と A = [avv(cid:48)] ∈ R|V|×|V| である。 0.79
Here, |V| is the cardinality of V. For HPV (µ, A), A is the adjacency ここで、|V| は V の濃度である。 HPV (μ, A) に対して A は隣接である 0.75
英語(論文から抽出)日本語訳スコア
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
matrix of the corresponding Granger causality graph. 対応するグランジャー因果関係グラフの行列。 0.58
A potential way to generate Hawkes processes is to first simulate their Granger causality graphs. Hawkesプロセスを生成する潜在的な方法は、まずGranger因果関係グラフをシミュレートすることです。 0.70
We apply this strategy based on a nonparametric graph model called graphon (Lov´asz, 2012). この戦略はgraphon(lov ́asz, 2012)と呼ばれる非パラメトリックグラフモデルに基づいて適用する。 0.77
A graphon is a two-dimensional measurable function, denoted as g : Ω2 (cid:55)→ [0, 1], where Ω is a measure space. グラフンは g : Ω2 (cid:55)→ [0, 1] と表される二次元可測函数であり、Ω は測度空間である。 0.83
Given a graphon, we can sample a matrix A = [avv(cid:48)] ∈ [0, 1]V ×V with an arbitrary size V : avv(cid:48) = g(xv, xv(cid:48)), xv ∼ Uniform(Ω) for v = 1, .., V. Here, {xv ∈ Ω}V v=1 are V independent variables sampled from a uniform distribution. グラトンが与えられたとき、任意の大きさ v を持つ行列 a = [avv(cid:48)] ∈ [0, 1]v ×v をサンプルすることができる: avv(cid:48) = g(xv, xv(cid:48)), xv が v = 1, ., v. ここで、 {xv ∈ ω}v v=1 は一様分布から標本化された v 独立変数である。 0.89
Accordingly, we generate a graph G(V,E) by setting V = {1, .., V } and v(cid:48) → v ∈ E ∼ Bernoulli(avv(cid:48 )). したがって、V = {1, .., V } と v(cid:48) → v ∈ E ・ Bernoulli(avv(cid:48 )) を設定することで、グラフ G(V,E) を生成する。 0.88
This graphon model is fundamental for modeling large-scale networks, which has been widely used in network analysis (Gao & Caines, 2019). このグルーポンモデルは、ネットワーク分析に広く用いられている大規模ネットワークのモデリングに基礎を置いている(Gao & Caines, 2019)。 0.84
Besides g(x, y), we introduce a one-dimensional measurable function on Ω, i.e., f : Ω (cid:55)→ [0, +∞), such that we can sample µ and A of a Hawkes process from f (x) and g(x, y), respectively. g(x, y) に加えて、f : Ω (cid:55)→ [0, +∞) 上の一次元可測関数を導入し、それぞれ f (x) と g(x, y) からホークス過程の μ と A をサンプリングすることができる。
訳抜け防止モード: g(x, y) の他に、Ω 上の 1-次元可測関数を導入する。 つまり、f : Ω ( cid:55)→ [ 0, + ∞ ) ホークス過程の μ と A を f ( x ) と g(x, y ) からサンプリングすることができる。
0.77
Our graphon-based Hawkes process model consists of f (x) and g(x, y), denoted as GHPΩ(f, g). グラフオンに基づくホークス過程モデルは、f(x) と g(x, y) で構成され、GHP(f, g) と表記される。
訳抜け防止モード: 我々のグラフオン-ベースホークスプロセスモデルは f ( x ) そして g(x, y ) は GHPΩ(f, g ) と表される。
0.85
Here, we set Ω = [0, 1] and implement the functions as f (x) = softplus(f1)(exp(σ(f2)x) − 1), ij sin iπx + g2 ここで ω = [0, 1] とし、関数 f (x) = softplus(f1)(exp(σ(f2)x) − 1), ij sin iπx + g2 として実装する。 0.91
g(x, y) = σ(cid:16)(cid:88)i,j∈{0,..,S} g(x, y) = σ(cid:16)(cid:88)i,j∈{0,.,S} 0.95
ij cos iπx) ij cos iπx) 0.84
(2) (g1 × (g3 (2) (g1×g3) 0.86
ij sin jπy + g4 ij sin jπy + g4 0.78
(3) ij cos jπy)(cid:17), (3) ij cos jπy (cid:17) 0.87
where f (x) is an exponential function, g(x, y) is designed based on the 2D Fourier series, which has 4(S + 1)2 coefficients, and σ(·) is the sigmoid function. ここで f(x) は指数関数であり、g(x, y) は 4(S + 1)2 係数を持つ 2Dフーリエ級数に基づいて設計され、σ(·) は sigmoid 関数である。 0.81
This implementation is simple and makes our model satisfy some significant properties in theory, which will be shown in Section 2.3. この実装は単純であり、我々のモデルは理論上のいくつかの重要な特性を満足させる。
訳抜け防止モード: この実装はシンプルで このモデルは理論上のいくつかの重要な性質を満たしており、第2.3節で示される。
0.70
Then the generative process defined by GHPΩ(f, g) is HPV (µ, A) ∼ GHPΩ(f, g) : 1) V ∼ π = {π1, ..., πVmax}, 2) V = {1, .., V }, and xv ∼ Uniform(Ω), ∀v ∈ V. このとき GHPΩ(f, g) で定義される生成過程は HPV (μ, A) > GHPΩ(f, g) : 1) V > π = {π1, ..., πVmax}, 2) V = {1, ., V } および xv > Uniform(Ω), >v ∈ V である。
訳抜け防止モード: このとき GHPΩ(f, g ) で定義される生成過程は HPV ( μ, A ) > GHPΩ(f, g) である。 g ) : 1 ) V ∼ π = { π1, πVmax }, 2 ) V = { 1 . , V } , および xv > Uniform(Ω ) , .v ∈ V である。
0.92
(4) 1 VmaxD (4) 1 VmaxD 0.85
3) µv = f (xv), avv(cid:48) = 3) μv = f (xv), avv(cid:48) = 0.96
g(xv, xv(cid:48)). g(xv, xv(cid:48))。 0.91
N (t) ∼ HPV (µ, A). N (t) は HPV (μ, A) である。 0.86
Here, π is a categorical distribution on {1, ..., Vmax}, which is often set as a uniform distribution, and Vmax is the maximum number of event types supported by our model. ここで π は {1, ..., vmax} 上の圏分布であり、これはしばしば一様分布として設定され、vmax はモデルによってサポートされるイベント型最大数である。 0.83
We treat Ω as an uncountable event type space. Ω を非可算なイベント型空間として扱う。 0.67
In each trial, we sample V latent event types {xv}V v=1 from Ω, where the number of the event types V is sampled from π. それぞれの試行において、V の潜伏事象型 {xv}V v=1 を Ω からサンプリングし、π からイベント型 V の数をサンプリングする。 0.77
Based on {xv}V v=1, we sample µ and A from f and g, respectively, and instantiate a Hawkes process. xv}V v=1 に基づいて、それぞれ f と g から μ と A をサンプリングし、ホークス過程をインスタンス化する。 0.69
Different from (2), we set avv(cid:48) = VmaxD g(xv, xv(cid:48)) in (4) to ensure the Hawkes process is stationary. (2) とは違って avv(cid:48) = VmaxD g(xv, xv(cid:48)) を (4) に設定し、ホークス過程が定常であることを保証する。 0.68
1 Property 2.1 (Stationarity). 1 プロパティ2.1(Stationarity)。 0.77
HP asymptotically stationary as long as |V| ≤ Vmax. HP は |V| ≤ Vmax まで漸近的に定常である。 0.70
V (µ, A) ∼ GHPΩ(f, g) is V (μ, A) は GHP(f, g) である。 0.86
Therefore, we can readily generate an event sequence N (t) from HPV (µ, A) by various simulation methods, e.g., the branch processing (Møller & Rasmussen, 2006) and Ogata’s thinning method (Ogata, 1981). そのため、分岐処理(Møller & Rasmussen, 2006)やOgataのシンニング法(Ogata, 1981)など、様々なシミュレーション方法でHPV(μ, A)からイベントシーケンスN(t)を簡単に生成することができます。 0.73
The key challenge in using GHP is that we cannot observe {xv}V v=1 because both the event type space Ω and the sampled event types are latent. GHPを使用する際の重要な課題は、イベント型空間 Ω とサンプルイベント型の両方が潜伏しているため、 {xv}V v=1 を観測できないことである。 0.74
Accordingly, for the generated Hawkes processes and their event sequences, we cannot directly match their event types (i.e., {xv}V v=1) with the event types of real-world sequences. したがって、生成されたhawkesプロセスとそのイベントシーケンスでは、イベントタイプ(すなわち {xv}v v=1)と実際のシーケンスのイベントタイプを直接マッチさせることはできない。 0.77
To solve this problem, in Section 3.2 we will leverage optimal transport (Villani, 2008; Peyr´e et al., 2019) to measure the distance between heterogeneous event sequences. この問題を解決するため、セクション3.2では、最適な輸送(Villani, 2008; Peyr ́e et al., 2019)を利用して、異種イベントシーケンス間の距離を測定します。 0.65
The learned optimal transport helps us to find a soft alignment between the generated event types and the real ones, which not only makes the generated event types and the corresponding point processes semantically meaningful but also builds the foundation for the learning method of our model (See Section 3). 学習した最適なトランスポートは、生成されたイベントタイプと実際のイベントのソフトアライメントを見つけるのに役立ち、生成されたイベントタイプと対応するポイントプロセスが意味的に意味を持つだけでなく、モデルの学習方法の基礎も構築します(セクション3)。 0.83
2.2. Extensions The proposed GHP provides us with a new framework to jointly model heterogeneous event sequences. 2.2. 拡張 提案したGHPは、異種事象列を共同でモデル化する新しいフレームワークを提供する。 0.67
Beyond Hawkes processes, our GHP model can be readily extended to generate more sophisticated types of point processes. ホークスプロセスを超えて、GHPモデルはより洗練されたタイプのポイントプロセスを生成するために容易に拡張できます。
訳抜け防止モード: ホークスプロセスを超えて、我々のGHPモデルは容易に拡張できる より洗練されたポイントプロセスを生み出します
0.72
Nonlinear Hawkes process. 非線形ホークスプロセス。 0.72
For nonlinear Hawkes process (also called mutually-correcting process) (Zhu, 2013; Xu et al., 2016b), its intensity function is λv(t) = exp(µv + (cid:80)ti<t φvvi(t, ti)) and the parameters can be negative. 非線形ホークスプロセス(相互補正プロセスとも呼ばれる)(Zhu, 2013; Xu et al., 2016b)の場合、その強度関数はλv(t) = exp(μv + (cid:80)ti<t φvvi(t, ti))であり、パラメータは負である。 0.84
In this case, we can implement GHPΩ(f, g) with f : Ω (cid:55)→ (−∞, +∞) and g : Ω2 (cid:55)→ (−∞, +∞), respectively. この場合、それぞれ f : Ω (cid:55)→ (−∞, +∞) と g : Ω2 (cid:55)→ (−∞, +∞) で GHPΩ(f, g) を実装することができる。 0.84
Multi-kernel Hawkes process. マルチカーネルホークスプロセス。 0.35
The multi-kernel Hawkes process constructs its impact functions by a set of decay kernels (Xu et al., 2016a), i.e., φvv(cid:48)(t) =(cid:80)M m=1 avv(cid:48)mηm(t), where the coefficients avv(cid:48)m’s are formulated as M matrices {Am}M In this case, we need to introduce several graphons, i.e., {g1(x, y), ..., gM (x, y)}, to generate the M matrices, and our GHP model becomes GHPΩ(f,{gm}M Time-varying Hawkes process. マルチカーネルホークスプロセスは、一連の崩壊カーネル(Xu et al., 2016a)、すなわちφvv(cid:48)(t) =(cid:80)M m=1 avv(cid:48)m*m(t)によってその衝撃関数を構築し、そこで係数 avv(cid:48)mがM行列 {Am}Mとして定式化される。
訳抜け防止モード: マルチカーネルホークス過程は、一連の崩壊カーネル(Xu et al ., 2016a )によってその影響関数を構成する。 すなわち、φvv(cid:48)(t ) = (cid:80)M m=1 avv(cid:48)mηm(t ) 係数 avv(cid:48)m は M 行列 { Am}M と定式化される。 いくつかのグラモン、すなわち { g1(x, y))を導入する必要があります ..., gM ( x, y ) }, M行列を生成する そして、我々のGHPモデルは、GHPΩ(f,{gm}M Time - 様々なホークス過程となる。
0.82
The time-varying Hawkes process applies shift-varying impact functions, i.e., φvv(cid:48)(t, t(cid:48)) = avv(cid:48)(t)η(t − t(cid:48)), where the coefficient avv(cid:48)(t) becomes a function of time. 時間変化のホークス過程はシフト変動する影響関数、すなわち φv(cid:48)(t, t(cid:48)) = avv(cid:48)(t)η(t − t(cid:48)) を適用し、そこで係数 avv(cid:48)(t) は時間の関数となる。 0.79
Similar to the multi-kernel Hawkes process, when using a set of bases to represent the coefficient function (Xu et al., 2017), i.e., avv(cid:48)(t) = m=1 avv(cid:48)mhm(t), where hm(t) is the m-th base, we can still apply multiple graphons to generate impact functions and rewrite our GHP model as GHPΩ(f,{gm}M Neural Hawkes process Most existing neural network- avv(cid:48)(t) = m=1 avv(cid:48)mhm(t) ここでhm(t)はm番目のベースであり、衝突関数を生成し、ghpモデルをghpω(f,{gm}mニューラルホークスプロセスとして書き換えるために複数のグラフを適用することができる。
訳抜け防止モード: マルチカーネルホークスプロセスと同様に、係数関数を表現するために基底のセットを使用する場合(Xu et al , 2017)。 avv(cid:48)(t ) = m=1 avv(cid:48)mhm(t ) ここで hm(t ) は m 番目の基底である。 衝突関数の生成やGHPモデルをGHPΩ(f,{gm}M Neural Hawkes Process)として書き直すには、まだ複数のグラモンを適用できます。
0.77
(cid:80)M m=1). (cid:80)m m=1。 0.83
m=1). m=1. m=1。 m=1。 0.75
英語(論文から抽出)日本語訳スコア
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
based Hawkes processes apply embedding layers to map the index of each event type to its latent code (Mei & Eisner, 2017; Zhang et al., 2020; Zuo et al., 2020). based Hawkesプロセスでは、各イベントタイプのインデックスを潜伏コード(Mei & Eisner, 2017; Zhang et al., 2020; Zuo et al., 2020)に埋め込むレイヤーを適用します。 0.79
For the neural Hawkes process, we can replace the embedding layer with a function f (x) : Ω (cid:55)→ RM such that we can generate M-dimensional latent codes for uncountable event types in Ω. ニューラルホークス過程では、埋め込み層を関数 f (x) : Ω (cid:55) → RM に置き換えることで、Ω の非可算事象型に対する M-次元潜在符号を生成することができる。 0.77
If the neural Hawkes process considers the interactions of different event types (Wang et al., 2016), we can set the graphon as g(x, y) = p(x)(cid:62)q(y), where p(x) : Ω (cid:55)→ RM and q(y) : Ω (cid:55)→ RM , respectively. ニューラルホークス過程が異なる事象型の相互作用(Wang et al., 2016)を考えると、グラフトンを g(x, y) = p(x)(cid:62)q(y) とし、p(x) : Ω (cid:55) → RM と q(y) : Ω (cid:55) → RM とする。 0.72
Accordingly, the GHP becomes GHPΩ(f, p, q). したがって、GHP は GHPΩ(f, p, q) となる。 0.84
Besides changing the point process model, we can also implement f (x) and g(x, y) by deep neural networks, which is left for future work. ポイントプロセスモデルの変更に加えて、我々はまた、将来の作業のために残されているディープニューラルネットワークによってf(x)とg(x, y)を実装することができます。
訳抜け防止モード: ポイントプロセスモデルの変更に加えて、深層ニューラルネットワークによるf(x, y)とg(x, y)も実装できる。 残るのは 将来の仕事です。
0.76
2.3. Theoretical analysis of the GHP model 2.3. GHPモデルの理論的解析 0.76
In addition to verifying the stationarity of generated Hawkes processes, we demonstrate two more properties of GHP based on the following mild assumptions. 生成したホークス過程の定常性を検証することに加えて,以下の軽度仮定に基づき,さらに2つのghpの特性を示す。 0.63
Assumption 2.2. For GHPΩ(f, g), we assume A) f (x) is bi-Lipschitz continuous on Ω, denoted as f ∈ 1 (cid:107)x − 1 ≤ C f 2 (cid:107)x − x(cid:48)(cid:107)2, ∀x, x(cid:48) ∈ Ω. 推定2.2。 GHPΩ(f, g) に対し、A) f (x) は Ω 上の双リプシッツ連続であると仮定し、f ∈ 1 (cid:107)x − 1 ≤ C f 2 (cid:107)x − x(cid:48)(cid:107)2, sx, x(cid:48) ∈ Ω と表記する。 0.71
0 ) = 0. 2 ): ∃ 0 < C f LipΩ(C f x(cid:48)(cid:107)2 ≤ |f (x) − f (x(cid:48))| ≤ C f 0 ) = 0. 0 < c f lipω(c f x(cid:48)(cid:107)2 ≤ |f(x) − f(x(cid:48))| ≤ c f である。 0.89
B) f (x) has a unique zero point in Ω, i.e., f (xf C) g(x, y) is strictly smaller than 1, i.e., g : Ω2 (cid:55)→ [0, 1). B) f (x) は Ω において一意な零点を持ち、すなわち f (xf C) g(x, y) は 1 より厳密に小さい、すなわち g : Ω2 (cid:55)→ [0, 1) である。 0.88
D) g(x, y) is Lipschitz continuous on Ω2, denoted as g ∈ LipΩ2(C g): ∃ 0 < C g < ∞, |g(x, y) − g(x(cid:48), y(cid:48))| ≤ C g(cid:107)[x; y] − [x(cid:48); y(cid:48)](cid:107)2, ∀[x; y], [x(cid:48); y(cid:48)] ∈ Ω2. D) g(x, y) は Ω2 上のリプシッツ連続体で、 g ∈ LipΩ2(C g) は g ∈ C g < ∞, |g(x, y) − g(x(cid:48), y(cid:48))| ≤ C g(cid:107)[x; y] − [x(cid:48)] y(cid:48)](cid:107)2, sh[x; y], [x(cid:48)] ∈ Ω2 と表される。 0.87
2 < ∞, C f 2 < ∞, c f である。 0.86
1 , C f Clearly, GHP defined in (3) satisfies the assumptions. 1 , C f 明らかに (3) で定義された GHP は仮定を満たす。 0.79
Based on the above assumptions, we prove that the parameters of the Hawkes process generated by our GHP model is Lipschitz continuous. 上記の仮定に基づいて、GHPモデルによって生成されるホークス過程のパラメータがリプシッツ連続であることを証明する。 0.73
Property 2.3 (Lipschitz Continuity). プロパティ2.3(Lipschitz Continuity)。 0.72
For HP and HP isfies Assumption 2.2, their parameters satisfy HP and HP isfies Assumption 2.2 の場合、それらのパラメータは満足する。 0.66
V (µ1, A1) U (µ2, A2) ∼ GHPΩ(f, g), where GHPΩ(f, g) sat- V (μ1, A1) U (μ2, A2) の GHP(f, g) は GHP(f, g) が座った。 0.84
1 dw(x1, x2) ≤ dw(µ1, µ2) ≤ C f C f dw(A1, A2) ≤ C gdw(x×1 , x×2 ), dgw(A1, A2) ≤ C gdgw(x×1 , x×2 ), 1 dw(x1, x2) ≤ dw(μ1, μ2) ≤ C f C f dw(A1, A2) ≤ C gdw(x×1 , x×2 ), dgw(A1, A2) ≤ C gdgw(x×1 , x×2 ) 0.98
2 dw(x1, x2), 2 dw(x1, x2)。 0.88
(5) where x1 = {xv,1}|V|v=1 and x2 = {xu,2}|U|u=1 are the latent event types, and x×1 = {[xv,1; xv(cid:48),1]}|V|v,v(cid:48)=1 and x×2 = {[xu,2; xu(cid:48),2]}|U|u,u(cid:48)=1 enumerate the pairs of the latent event types. (5) x1 = {xv,1}|v|v=1 と x2 = {xu,2}|u|u=1 が潜在イベント型であり、x×1 = {[xv,1; xv(cid:48),1]}|v|v,v(cid:48)=1 と x×2 = {[xu,2; xu(cid:48),2]}|u|u,u(cid:48)=1 が潜在イベントタイプのペアを列挙する。 0.80
dw is the discrete Wasserstein distance (or called the earth mover’s distance) and the dgw is the discrete GromovWasserstein distance.1 dwは離散的なWasserstein距離(または地球移動者の距離と呼ばれる)であり、dgwは離散的なGromovWasserstein距離です。 0.78
Property 2.3 shows that i) for the generated Hawkes processes, the difference between their parameters is bounded プロパティ 2.3 は、生成した Hawkes プロセスに対して、パラメータ間の差が有界であることを示します。
訳抜け防止モード: プロパティ 2.3 は生成したホークス過程に対して i ) を示す。 パラメータ間の差は
0.79
1The definitions of dw and dgw are given in Appendix A. 1 dw と dgw の定義は Appendix A で与えられる。 0.79
by the difference between their latent event types; and ii) the parameters of each generated Hawkes process are robust to the perturbations of the latent event types. ii) 生成された各ホークスプロセスのパラメータは、潜在イベントタイプの摂動に対して堅牢である。 0.49
Because the difference between generated Hawkes processes is bounded, the difference between the corresponding event sequences is bounded as well. 生成されたホークスプロセス間の差は有界であるため、対応するイベントシーケンス間の差も同様に有界である。 0.70
Specifically, for a point process, its average intensity vector, defined as ¯λ := , reflects the dynamics of its event sequences (Chiu et al., 2013). 具体的には、点過程において、その平均強度ベクトルは λ := と定義され、事象列のダイナミクスを反映している(chiu et al., 2013)。 0.74
For this key statistics, we have U (µ2, A2) ∼ Property 2.4. この重要な統計のために、U (μ2, A2) の性質 2.4 がある。 0.68
For HP GHPΩ(f, g), where GHPΩ(f, g) satisfies Assumption 2.2 and |V| ≤ |U|, their average intensity vectors, i.e., ¯λ1 and ¯λ2, satisfy HP GHPΩ(f, g) に対して、GHPΩ(f, g) は仮定 2.2 と |V| ≤ |U| を満たす。 0.69
V (µ1, A1) and HP V(μ1, A1)とHP 0.93
E[dN (t)] dt E[dN (t)] dt 0.80
V ≤ (cid:107)µ1(cid:107)2 V ≤ (cid:107)μ1(cid:107)2 0.82
+ 1 √2U Cg 1 − D(cid:107)A1(cid:107 )2 + 1 2U Cg 1 − D(cid:107)A1(cid:107 )2 0.79
(cid:107)¯λ1(cid:107)2 (cid:107) λ1(cid:107)2 0.75
dw(¯λ1, ¯λ2) dw(λ1, λ2) である。 0.61
Cf 1 (cid:107)IV −DA1(cid:107)2 Cf 1 (cid:107)IV −DA1 (cid:107)2 0.77
+(cid:114) U − V +(cid:114) U − V 0.94
(cid:16)dw(µ1, µ2) (cid:107)µ1(cid:107)2(cid:17) +(cid:114) U − V where (cid:107)·(cid:107)2 is the (cid:96)2-norm for vectors and the spectral norm for matrices, U = |U|, V = |V|, D = (cid:82) ∞ 0 η(t)dt is the integral of the decay kernel used in the Hawkes processes, and C f 1 and C g are the constants defined in Assumption 2.2. (cid:16)dw(μ1, μ2) (cid:107)μ1(cid:107)2(cid:17) + (cid:114) U − V where (cid:107)· (cid:107)2-norm for vectors and the spectrum norm for matrices, U = |U|, V = |V|, D = (cid:82) ∞ 0 η(t)dt is the integral of the decay kernel used in the Hawkes process, C f 1 and C g is defined in Assumption 2.2。 0.93
Furthermore, if |V| = |U|, we can simplify Property 2.4 as U (µ2, A2) ∼ Corollary 2.5. さらに、もし |V| = |U| ならば、プロパティ 2.4 を U (μ2, A2) として単純化することができる。 0.62
For HP GHPΩ(f, g), where GHPΩ(f, g) satisfies Assumption 2.2 and |V| = |U| = V , we have HP GHPΩ(f, g) に対して、GHPΩ(f, g) は仮定 2.2 と |V| = |U| = V を満たす。 0.81
V (µ1, A1) and HP V(μ1, A1)とHP 0.93
, U V (6) dw(¯λ1, ¯λ2) , U V (6) dw(λ1, λ2) である。 0.79
(cid:107)¯λ1(cid:107)2 (cid:107) λ1(cid:107)2 0.75
≤ dw(µ1, µ2) ≤ dw(μ1, μ2) 0.94
1 − D(cid:107)A1(cid:107 )2(cid:32) √ 1 − D(cid:107)A1(cid:107 )2(cid:32) 0.82
2V C g/C f 1 (cid:107)IV − DA1(cid:107)2 2V C g/C f 1 (cid:107)IV − DA1 (cid:107)2 0.77
1 (cid:107)µ1(cid:107)2(cid:33) . 1 (cid:107)μ1(cid:107)2(cid:33)。 0.77
+ 3. Learning Algorithm 3.1. + 3. 学習アルゴリズム 3.1。 0.81
A reward-augmented maximum likelihood (cid:98)N = {(cid:99)Nk(t)}K 報酬増強最大可能性 (cid:98)N = {(cid:99)Nk(t)}K 0.83
We propose a novel method to learn GHP model from observed heterogeneous event sequences. 観測された異種事象列からGHPモデルを学習するための新しい手法を提案する。 0.67
Denote N = {Nl(t)}L l=1 as the set of real-world event sequences and k=1 the set of the event sequences generated by our model. N = {Nl(t)}L l=1 を実世界のイベントシーケンスの集合、k=1 をモデルによって生成されたイベントシーケンスの集合と呼びます。 0.74
Because the correspondence of real-world event types in the latent event type space is unknown, as mentioned in Section 2.1, we need to simultaneously learn the underlying graphon of our model and align the event types of the generated Hawkes processes with the real ones. 第2.1節で述べたように、潜在イベント型空間における実世界イベント型の対応は未知であるため、モデルの基本グラフを同時に学習し、生成されたホークスプロセスのイベント型を実物と整列させる必要があります。 0.75
To achieve this aim, we formulate the following optimization problem, この目的を達成するために、以下の最適化問題を定式化する。 0.60
maxNl∈N q((cid:99)Nk|Nl) log p((cid:99)Nk; θ). maxNl∈N q((cid:99)Nk|Nl) log p((cid:99)Nk; )。 0.84
(cid:81) exp((cid:80) (cid:81) exp((cid:80) 0.81
(ti,vi) λk vi 0 λk v∈V (ti,vi) λk vi 0 λk v∈V 0.86
(ti;θ) v (t;θ)dt) (ti;θ)v(t;θ)dt) 0.84
(cid:82) T is the likelihood of the k-th generated event sequence, θ represents the model (cid:82)T k番目の生成する事象列の確率 θ はモデルを表す 0.78
minθ −(cid:88)(cid:99)Nk∈(cid:98)N where p((cid:99)Nk; θ) = minθ −(cid:88)(cid:99)Nk(c id:98)N ここで p((cid:99)Nk; θ) = 0.81
(7) (7) 0.85
英語(論文から抽出)日本語訳スコア
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
parameter {f1, f2,{gm パラメータ {f1, f2,{gm 0.92
ij }}, and q((cid:99)Nk|Nl) is the probability of(cid:99)Nk conditioned on the l-th real sequence Nl. ij }} および q((cid:99)Nk|Nl) は l 番目の実列 Nl 上で条件付き(cid:99)Nk の確率である。 0.78
Essentially, the conditional probability q((cid:99)N|N ) measures the similarity 本質的に、条件付き確率 q((cid:99)n|n ) は類似性を測定する 0.65
between the generated sequence and the real one. 生成したシーケンスと実際のシーケンスの中間です 0.65
When the two sequences yield the same generative mechanism and have similar dynamics, the real sequence provides useful prior information, and thus, the occurrence of the generated sequence is with a high probability. 2つのシーケンスが同じ生成機構を持ち、類似のダイナミクスを持つ場合、実シーケンスは有用な事前情報を提供するので、生成されたシーケンスの発生は高い確率で発生する。 0.80
In (7), the log-likelihood of each generated sequence is weighted by its maximum conditional probability with re- 7)各生成シーケンスのログ類似度は、その最大条件確率でre-で重み付けされる
訳抜け防止モード: in (7 ) the log - 各生成シーケンスの確率は、re-でその最大条件確率によって重み付けされる
0.74
The weight measures the overall similarity between the the 重量は、その間の全体的な類似度を測定する 0.64
indicates that the generated sequence is informative for our learning problem because it is similar to at least one real sequence. 生成したシーケンスは,少なくとも1つの実シーケンスに類似しているため,学習上の問題に対して有益であることを示す。 0.59
Otherwise, the sequence is less useful. さもなければ、シーケンスは役に立たない。 0.50
Additionally, assuming the empirical distribution of the real sequences さらに 実数列の 経験的分布を仮定すると 0.74
spect to the real sequences, i.e., maxNl∈N q((cid:99)Nk|Nl)). 実数列、すなわち maxNl~N q((cid:99)Nk|Nl) を考える。 0.73
generated sequence (cid:99)Nk and the real ones. 生成シーケンス (cid:99)nk と実シーケンス。 0.70
A large weight to be uniform, we have q((cid:99)N|N ) ∝ q((cid:99)N , N ), and the optiminθ −(cid:88)(cid:99)Nk∈(cid:98)N maxNl∈N q((cid:99)Nk, Nl) log p((cid:99)Nk; θ). 均一であるべき大きい重量は q((cid:99)N|N ) を q((cid:99)N , N ) とし、オプティミニンは −(cid:88)(cid:99)Nk∈(cid:98)NmaxNl∈N q((cid:99)Nk, Nl) log p((cid:99)Nk; ) である。 0.86
REMARK. the above formulation (8) can be considered as a variant of the reward-augmented maximum likelihood (RAML) estimation method (Norouzi et al., 2016) REMARK 上記の定式化(8)は、報酬増強最大可能性推定法(RAML)の変種と見なすことができる(Norouzi et al., 2016) 0.66
mization problem becomes, mization 問題になります。 0.63
(see also Section 3.3). For sequence (cid:99)Nk, the weight maxNl∈N q((cid:99)Nk, Nl) plays the role of its reward and is (第3項も参照。) 列 (cid:99)Nk の場合、重み maxNl∈N q((cid:99)Nk,Nl) はその報酬の役割を担う。 0.73
assigned to its log-likelihood. log-likelihoodに割り当てられる。 0.71
The higher reward the loglikelihood obtains, the more significant it is in learning. loglikelihoodが得る報酬が高ければ高いほど、学習においてより重要になる。 0.69
(8) 3.2. Hierarchical optimal transport between (8) 3.2. 階層的最適輸送 0.74
heterogeneous event sequences 異種イベントシーケンス 0.64
The key of our learning algorithm, which is also its main 私たちの学習アルゴリズムの鍵は、その主なものでもあります。 0.66
novelty, is computing the joint distribution q((cid:99)N , N ) based 新規性は、結合分布 q((cid:99)N , N ) に基づく計算である 0.79
on the hierarchical optimal transport (HOT) model (Lee et al., 2019; Yurochkin et al., 2019). 階層的最適輸送(HOT)モデルについて(Lee et al., 2019; Yurochkin et al., 2019)。 0.83
In particular, the HOT model not only captures the optimal transport between the generated event sequences and the real ones but also captures the optimal transport between their event types. 特にHOTモデルは、生成されたイベントシーケンスと実際のイベント間の最適なトランスポートをキャプチャするだけでなく、イベントタイプ間の最適なトランスポートもキャプチャする。 0.72
Given l=1, we compute the opti- l=1 でオプティを計算します。 0.53
k=1 and N = {Nl}L L 1L) (cid:88)k,l L 1L)(cid:104)D, Q(cid:105), K 1K, 1 L 1L} is the set of k=1 と N = {Nl}L L 1L) (cid:88)k,l L 1L)(cid:104)D, Q(cid:105), K 1K, 1 L 1L} は集合である 0.91
(cid:98)N = {(cid:99)Nk}K mal transport distance between them as dot((cid:98)N ,N ) q((cid:99)Nk, Nl)d((cid:99)Nk, Nl) L 1L(cid:1) = {Q ≥ 0 | Q1L = where the polytope Π(cid:0) 1 [d((cid:99)Nk, Nl)] ∈ RK×L is a distance matrix, whose element measures the distance between the sequences. (cid:98)N = {(cid:99)Nk}K モル輸送距離は、ドット((cid:98)N ,N ) q((cid:99)Nk,Nl)d((c id:99)Nk,Nl) L 1L(cid:1) = {Q ≥ 0 | Q1L = ここで、ポリトープ(cid:0) 1 [d((cid:99)Nk,Nl)] ∈ RK×L は、配列間の距離を測定する距離行列である。 0.91
L 1L)(cid:104)D, Q(cid:105), the optimizer of (9), Q∗ = arg minQ∈Π( 1 is the optimal transport matrix between the two sets of event l 1l)(cid:104)d, q(cid:105, the optimizer of (9, q∗ = arg minqπ(1) is the optimal transport matrix between the two set of event 0.90
K 1K, Q(cid:62)1K = 1 1 stochastic matrices having marginals 1 K 1K, Q(cid:62)1K = 1 限界 1 の確率行列 0.78
:= minQ∈Π( 1 = minQ∈Π( 1 :=minqjavaπ(1)=minqjavaπ(1) 0.52
the doublyL 1L, D = 二重L 1L, D = 0.76
K 1K and 1 K 1K , 1 K1Kと1 k 1k , 1 0.88
K 1K , 1 K 1K , 1 k 1k , 1 k 1k , 1 0.87
(9) Figure 2. An illustration of the hierarchical optimal transport distance between two sets of event sequences. (9) 図2。 2組のイベントシーケンス間の階層的最適移動距離の図。 0.76
u , N l v) u , N l v) 0.85
erated event sequences and the real ones, this matrix is the 評価されたイベントシーケンスと実際のもの、このマトリックスは 0.74
optimization problem can be solved by many efficient methods, e.g., the Sinkhorn scaling method (Cuturi, 2013) and the proximal point method (Xie et al., 2020). 最適化問題は、例えばシンクホーンスケーリング法(Cuturi, 2013)や近位点法(Xie et al., 2020)など、多くの効率的な方法で解くことができる。 0.80
u}u∈Vk and Nl = {N l (cid:16) 1|Vk| 1|Vk|, 1|Vl| 1|Vl| (cid:17) (cid:88)u,v (cid:17)(cid:104)Dkl , T(cid:105), (cid:16) 1|Vk| 1|Vk|, 1|Vl| 1|Vl| u = {N l (cid:16) 1|Vk| 1|Vk|, 1|Vl| 1|Vl| (cid:17) (cid:88)u,v (cid:17)(cid:104)Dkl , T(cid:105), (cid:16) 1|Vk| 1|Vk|, 1|Vl| 1|Vl| 0.68
sequences. When (cid:98)N and N correspond to the sets of gendesired joint distribution, i.e., Q∗ = [q∗((cid:99)Nk, Nl)]. シーケンス。 とき (cid:98)N と N は gendesired joint distribution の集合に対応する、すなわち Q は (cid:99)Nk, Nl)] である。 0.70
This v}v∈Vl, where Vk and For (cid:99)Nk = {(cid:98)N k Vl are the sets of their event types, we also implement their distance as an optimal transport distance: d((cid:99)Nk, Nl) Tuvd((cid:98)N k := minT ∈Π = minT ∈Π v)] ∈ R|Vk|×|Vl| is the distance where Dkl = [d((cid:98)N k u (t) − matrix for (cid:99)Nk and Nl, and d((cid:98)N k v(t)|dt measures the difference between the sequence of N l the type-u events and that of the type-v events in [0, T ]. この v}v∈Vl, ここで Vk と For (cid:99)Nk = {(cid:98)N k Vl がイベントタイプの集合であるとき、我々はまた、それらの距離を最適な移動距離として実装する: d((cid:99)Nk, Nl)Tuvd((cid:98)N k := minT に従事する(cid:98)Nk (v)] ∈ R|Vk|×|Vl| は Dkl = [d((cid:98)N k u (t)−Matrix for (cid:99)Nk and Nl, and d(cid:98)N k v(t)|dt は、型イベントの列 Nl と型と型イベント(v)の列間の差を測定する。 0.86
Plugging (10) into (9), we measure the difference between two sets of heterogeneous event sequences by a hierarchical optimal transport distance, in which the ground distance used in (9) is also an optimal transport distance. また, (10) を (9) に差し込むことにより, (9) で使用される接地距離が最適移動距離である階層的最適移動距離を用いて, 2組の異種事象列間の差を測定する。 0.83
Figure 2 illustrates the hierarchical optimal transport distance. 図2は階層的最適輸送距離を示します。 0.77
In the proposed HOT distance, the optimal transport matrix Q∗ derived by (9) achieves a soft alignment between the generated sequences and the real ones, which corresponds to the joint distribution in (8). 提案したHOT距離において, (9) で導かれる最適輸送行列 Q∗ は, (8) における関節分布に対応する生成配列と実行列とのソフトアライメントを実現する。 0.86
Additionally, the optimal transport matrix T ∗ derived by (10) aligns the event types of a generated sequence with those of a real one, which indicates the correspondence of real-world event types in the latent event type space. さらに、 (10) によって導かれる最適輸送行列 t ∗ は生成列のイベントタイプと実数列のイベントタイプを整合させ、これは潜在イベント型空間における実世界のイベントタイプの対応を示す。 0.76
In Section 5, we will show that based on T ∗ GHP can generate semantically-meaning ful Hawkes processes and their event sequences. 第5節では、T∗ GHPに基づいて意味論的に意味のあるホークスプロセスとそのイベントシーケンスを生成することを示す。 0.60
T (cid:82) T 0 |(cid:98)N k T (cid:82) T 0 |(cid:98)N k 0.90
v) = 1 u , N l v) = 1 u 、 N l 。 0.85
u , N l (10) u 、 N l 。 (10) 0.85
3.3. Further analysis 3.3. さらなる分析 0.76
Our HOT-based RAML method (denoted as RAML-HOT) has two advantages over the original RAML in (Norouzi et al., 2016). HOTをベースとしたRAML法(RAML-HOT)は,従来のRAMLに比べて2つの利点がある(Norouzi et al., 2016)。 0.62
Firstly, the reward used in the original RAML is the sum of the conditional probabilities, i.e., q( ˆNk|Nl). 第一に、元のRAMLで使われる報酬は条件付き確率の和、すなわちq(nk|Nl)である。 0.72
Accordingly, a generated sequence それゆえ 生成されたシーケンスは 0.70
(cid:80)Nl∈N (cid:80)Nl∈N 0.65
RealSequences::<latexit sha1_base64="dT/gVfaIm94xI8u/v/+ooFOL5dM=">AAAB6HicbVBNS8NAEN3U r1q/qh69LBahp5KIoseC F48t2A9oQ9lsJ+3azSbsToQS+gu8eFDEqz/Jm//GbZuDt j4YeLw3w8y8IJHCoOt+O4WNza3tneJuaW//4PCo fHzSNnGqObR4LGPdDZgB KRS0UKCEbqKBRYGETjC5 m/udJ9BGxOoBpwn4ERsp EQrO0EpNHJQrbs1dgK4T LycVkqMxKH/1hzFPI1DI JTOm57kJ+hnTKLiEWamfGkgYn7AR9 CxVLALjZ4tDZ/TCKkMax tqWQrpQf09kLDJmGgW2M 2I4NqveXPzP66UY3vqZU EmKoPhyUZhKijGdf02HQ gNHObWEcS3srZSPmWYcb TYlG4K3+vI6aV/WvOua27yq1Kt5H EVyRs5JlXjkhtTJPWmQF uEEyDN5JW/Oo/PivDsfy 9aCk8+ckj9wPn8A2amM4g==</latexit>t<latexit sha1_base64="dT/gVfaIm94xI8u/v/+ooFOL5dM=">AAAB6HicbVBNS8NAEN3U r1q/qh69LBahp5KIoseC F48t2A9oQ9lsJ+3azSbsToQS+gu8eFDEqz/Jm//GbZuDt j4YeLw3w8y8IJHCoOt+O4WNza3tneJuaW//4PCo fHzSNnGqObR4LGPdDZgB KRS0UKCEbqKBRYGETjC5 m/udJ9BGxOoBpwn4ERsp EQrO0EpNHJQrbs1dgK4T LycVkqMxKH/1hzFPI1DI JTOm57kJ+hnTKLiEWamfGkgYn7AR9 CxVLALjZ4tDZ/TCKkMax tqWQrpQf09kLDJmGgW2M 2I4NqveXPzP66UY3vqZU EmKoPhyUZhKijGdf02HQ gNHObWEcS3srZSPmWYcb TYlG4K3+vI6aV/WvOua27yq1Kt5H EVyRs5JlXjkhtTJPWmQF uEEyDN5JW/Oo/PivDsfy 9aCk8+ckj9wPn8A2amM4g==</latexit>t<latexit sha1_base64="XV0srffAjb3AtO2Varll Wm8ogxw=">AAACAHicbVDLSsNAFJ3U V62vqAsXbgaL4EJKIoou C25cSQX7gDaEyXTSDp1M wsyNWEI2/oobF4q49TPc +TdO2yy09cDlHs65l5l7g kRwDY7zbZWWlldW18rrl Y3Nre0de3evpeNUUdaks YhVJyCaCS5ZEzgI1kkUI 1EgWDsYXU/89gNTmsfyH sYJ8yIykDzklICRfPsg6 wF7hCCcdQ7ZbZ7nvuvbV afmTIEXiVuQKirQ8O2vX j+macQkUEG07rpOAl5GFHA qWF7ppZolhI7IgHUNlSR i2sumB+T42Ch9HMbKlAQ8VX9vZC TSehwFZjIiMNTz3kT8z+umEF55GZdJCkzS2UNhKj DEeJIG7nPFKIixIYQqbv 6K6ZAoQsFkVjEhuPMnL5 LWWc29qDl359X6aRFHGR 2iI3SCXHSJ6ugGNVATUZ SjZ/SK3qwn68V6tz5moy Wr2NlHf2B9/gDo3pcs&l t;/latexit>N1<latexit sha1_base64="hiVDDRSYoas8jb8zQY82 NgyMFro=">AAACAHicbVDLSsNAFJ34 rPUVdeHCzWARXEhJRNFl wY0LkQr2AW0Ik+mkHTqZhJkbsYRs/BU3Lh Rx62e482+ctllo64HLPZxzLzP3BIn gGhzn21pYXFpeWS2tldc 3Nre27Z3dpo5TRVmDxiJ W7YBoJrhkDeAgWDtRjES BYK1geDX2Ww9MaR7Lexg lzItIX/KQUwJG8u39rAv sEYJw2jlkt3me+ze+XXGqzgR4nrgFqaACdd/+6vZimkZMAhVE647rJOBl RAGnguXlbqpZQuiQ9FnH UEkipr1sckCOj4zSw2Gs TEnAE/X3RkYirUdRYCYj AgM9643F/7xOCuGll3GZ pMAknT4UpgJDjMdp4B5X jIIYGUKo4uavmA6IIhRM ZmUTgjt78jxpnlbd86pz d1apnRRxlNABOkTHyEUX qIauUR01EEU5ekav6M16 sl6sd+tjOrpgFTt76A+szx8R2ZdH</latexit>NL<latexit sha1_base64="3xCNGGtY/sGp75PPJjX1 DCtO+k0=">AAACAnicbVDLSsNAFJ3U V62vqCtxEyyCCy2JKLos uHEhUsE+oA1hMp20QyeTMHMjlhDc +CtuXCji1q9w5984TbPQ6 oHLPZxzLzP3+DFnCmz7yyjNzS8sLpWXK yura+sb5uZWS0WJJLRJIh7Jjo 8V5UzQJjDgtBNLikOf07 Y/upj47TsqFYvELYxj6o Z4IFjACAYteeZOD+g9+EGadwbpdZZ56dWRk3lm1 a7ZOay/xClIFRVoeOZnr x+RJKQCCMdKdR07BjfFEhj hNKv0EkVjTEZ4QLuaChx S5ab5CZm1r5W+FURSlwArV39upDhUahz6 ejLEMFSz3kT8z+smEJy7KRNxAlSQ6UNBwi 2IrEkeVp9JSoCPNcFEMv 1XiwyxxAR0ahUdgjN78l /SOq45pzX75qRaPyziKK NdtIcOkIPOUB1dogZqIo Ie0BN6Qa/Go/FsvBnv09 GSUexso18wPr4B/GuXuQ ==</latexit>NL1GeneratedSequences: :<latexit sha1_base64="dT/gVfaIm94xI8u/v/+ooFOL5dM=">AAAB6HicbVBNS8NAEN3U r1q/qh69LBahp5KIoseC F48t2A9oQ9lsJ+3azSbsToQS+gu8eFDEqz/Jm//GbZuDt j4YeLw3w8y8IJHCoOt+O4WNza3tneJuaW//4PCo fHzSNnGqObR4LGPdDZgB KRS0UKCEbqKBRYGETjC5 m/udJ9BGxOoBpwn4ERsp EQrO0EpNHJQrbs1dgK4T LycVkqMxKH/1hzFPI1DI JTOm57kJ+hnTKLiEWamfGkgYn7AR9 CxVLALjZ4tDZ/TCKkMax tqWQrpQf09kLDJmGgW2M 2I4NqveXPzP66UY3vqZU EmKoPhyUZhKijGdf02HQ gNHObWEcS3srZSPmWYcb TYlG4K3+vI6aV/WvOua27yq1Kt5H EVyRs5JlXjkhtTJPWmQF uEEyDN5JW/Oo/PivDsfy 9aCk8+ckj9wPn8A2amM4g==</latexit>t<latexit sha1_base64="dT/gVfaIm94xI8u/v/+ooFOL5dM=">AAAB6HicbVBNS8NAEN3U r1q/qh69LBahp5KIoseC F48t2A9oQ9lsJ+3azSbsToQS+gu8eFDEqz/Jm//GbZuDt j4YeLw3w8y8IJHCoOt+O4WNza3tneJuaW//4PCo fHzSNnGqObR4LGPdDZgB KRS0UKCEbqKBRYGETjC5 m/udJ9BGxOoBpwn4ERsp EQrO0EpNHJQrbs1dgK4T LycVkqMxKH/1hzFPI1DI JTOm57kJ+hnTKLiEWamfGkgYn7AR9 CxVLALjZ4tDZ/TCKkMax tqWQrpQf09kLDJmGgW2M 2I4NqveXPzP66UY3vqZU EmKoPhyUZhKijGdf02HQ gNHObWEcS3srZSPmWYcb TYlG4K3+vI6aV/WvOua27yq1Kt5H EVyRs5JlXjkhtTJPWmQF uEEyDN5JW/Oo/PivDsfy 9aCk8+ckj9wPn8A2amM4g==</latexit>t<latexit sha1_base64="dT/gVfaIm94xI8u/v/+ooFOL5dM=">AAAB6HicbVBNS8NAEN3U r1q/qh69LBahp5KIoseC F48t2A9oQ9lsJ+3azSbsToQS+gu8eFDEqz/Jm//GbZuDt j4YeLw3w8y8IJHCoOt+O4WNza3tneJuaW//4PCo fHzSNnGqObR4LGPdDZgB KRS0UKCEbqKBRYGETjC5 m/udJ9BGxOoBpwn4ERsp EQrO0EpNHJQrbs1dgK4T LycVkqMxKH/1hzFPI1DI JTOm57kJ+hnTKLiEWamfGkgYn7AR9 CxVLALjZ4tDZ/TCKkMax tqWQrpQf09kLDJmGgW2M 2I4NqveXPzP66UY3vqZU EmKoPhyUZhKijGdf02HQ gNHObWEcS3srZSPmWYcb TYlG4K3+vI6aV/WvOua27yq1Kt5H EVyRs5JlXjkhtTJPWmQF uEEyDN5JW/Oo/PivDsfy 9aCk8+ckj9wPn8A2amM4g==</latexit>t<latexit sha1_base64="uFm4wfu5bhv9EYQg+A5NABDk3ss=">AAACBHicbVDLSsNAFJ3U V62vqMtugkVwISURRZcF N4IgFewDmhAm00k7dDIJ MzdiCVm48VfcuFDErR/h zr9x2mahrQcu93DOvczc EyScKbDtb6O0tLyyulZe r2xsbm3vmLt7bRWnktAW iXksuwFWlDNBW8CA024i KY4CTjvB6HLid+6pVCwWdzBOqBfhgWAhIx i05JtVd4ghc4E+QBDOOoPsJs9z/9o3a3bd nsJaJE5BaqhA0ze/3H5M 0ogKIBwr1XPsBLwMS2CE 07zipoommIzwgPY0FTii ysumR+TWoVb6VhhLXQKsqfp7I8 ORUuMo0JMRhqGa9ybif1 4vhfDCy5hIUqCCzB4KU2 5BbE0SsfpMUgJ8rAkmku m/WmSIJSagc6voEJz5kx dJ+6TunNXt29Na47iIo4yq6 AAdIQedowa6Qk3UQgQ9o mf0it6MJ+PFeDc+ZqMlo9jZR39gfP4AODKZ Bw==</latexit>ˆNK<latexit sha1_base64="J6PxukO1YkO4EsxAQAu1 q1ZO1lY=">AAACBHicbVDLSsNAFJ3U V62vqMtugkVwISUpii4L blxJBfuAJoTJdNIOnUzC zI1YQhZu/BU3LhRx60e4 82+ctllo64HLPZxzLzP3BAl nCmz72yitrK6tb5Q3K1v bO7t75v5BR8WpJLRNYh7 LXoAV5UzQNjDgtJdIiqO A024wvpr63XsqFYvFHUw S6kV4KFjICAYt+WbVHWHIXKAPEITzziC7y fPcb/hmza7bM1jLxClID RVo+eaXO4hJGlEBhGOl+o6dgJdhCYxwmlfcVNEEk zEe0r6mAkdUednsiNw61 srACmOpS4A1U39vZDhSa hIFejLCMFKL3lT8z+unEF56GRNJClSQ+UNhyi2IrWki1oBJSoBPN MFEMv1Xi4ywxAR0bhUdg rN48jLpNOrOed2+Pas1T4s4yqiKjtAJctAF aqJr1EJtRNAjekav6M14 Ml6Md+NjPloyip1D9AfG5w8STp ju</latexit>ˆN2<latexit sha1_base64="uFXSBcpJ5+nkseLC8xeyINwE/90=">AAACBHicbVDLSsNAFJ34 rPUVddnNYBFcSElE0WXB jSupYB/QhjCZTtqhk0mY uRFLyMKNv+LGhSJu/Qh3/o3TNgttPX C5h3PuZeaeIBFcg+N8W0vLK6tr66WN8ubW9s 6uvbff0nGqKGvSWMSqEx DNBJesCRwE6ySKkSgQrB 2MriZ++54pzWN5B+OEeREZSB5ySsBIvl3pDQ lkPWAPEISzziG7yfPcd3 276tScKfAicQtSRQUavv 3V68c0jZgEKojWXddJwM uIAk4Fy8u9VLOE0BEZsK 6hkkRMe9n0iBwfGaWPw1 iZkoCn6u+NjERaj6PATEYEhnrem4j /ed0Uwksv4zJJgUk6eyh MBYYYTxLBfa4YBTE2hFD FzV8xHRJFKJjcyiYEd/7 kRdI6rbnnNef2rFo/KeI ooQo6RMfIRReojq5RAzU RRY/oGb2iN+vJerHerY/Z6JJV7BygP7 A+fwAQypjt</latexit>ˆN1<latexit sha1_base64="NkoxNJ88XnxReKlUqcbk 9Kvp7xg=">AAACBHicbVDLSsNAFJ34 rPUVddnNYBFcSElE0WXB jSupYB/QhjCZTtqhk0mY uRFLyMKNv+LGhSJu/Qh3/o3TNgttPX C5h3PuZeaeIBFcg+N8W0vLK6tr66WN8ubW9s 6uvbff0nGqKGvSWMSqEx DNBJesCRwE6ySKkSgQrB 2MriZ++54pzWN5B+OEeREZSB5ySsBIvl3pDQ lkPWAPEISzziG7yfPcH/ l21ak5U+BF4hakigo0fPur149pGj EJVBCtu66TgJcRBZwKlp d7qWYJoSMyYF1DJYmY9r LpETk+Mkofh7EyJQFP1d8bGYm0 HkeBmYwIDPW8NxH/87op hJdexmWSApN09lCYCgwx niSC+1wxCmJsCKGKm79iOiSKU DC5lU0I7vzJi6R1WnPPa 87tWbV+UsRRQhV0iI6Riy5QHV2j Bmoiih7RM3pFb9aT9WK9 Wx+z0SWr2DlAf2B9/gBospk n</latexit>ˆNk<latexit sha1_base64="T9nR/d243bE6Q7r/j2Da gzL6Qd4=">AAACAHicbVDLSsNAFJ3U V62vqAsXbgaL4EJKIoou C25cSQX7gDaEyXTSDp1M wsyNWEI2/oobF4q49TPc +TdO2yy09cDlHs65l5l7g kRwDY7zbZWWlldW18rrl Y3Nre0de3evpeNUUdaks YhVJyCaCS5ZEzgI1kkUI 1EgWDsYXU/89gNTmsfyH sYJ8yIykDzklICRfPsg6 wF7hCCcdQ7ZbZ7nvvDtq lNzpsCLxC1IFRVo+PZXrx/TNGISqCBad10nA S8jCjgVLK/0Us0SQkdkw LqGShIx7WXTA3J8bJQ+DmNlSgKeqr83MhJpPY4C MxkRGOp5byL+53VTCK+8jMskBSbp7KEwFRhiPEk D97liFMTYEEIVN3/FdEg UoWAyq5gQ3PmTF0nrrOZ e1Jy782r9tIijjA7RETp BLrpEdXSDGqiJKMrRM3p Fb9aT9WK9Wx+z0ZJV7OyjP7A+fwBCWZdn</latexit>Nl<latexit sha1_base64="dT/gVfaIm94xI8u/v/+ooFOL5dM=">AAAB6HicbVBNS8NAEN3U r1q/qh69LBahp5KIoseC F48t2A9oQ9lsJ+3azSbsToQS+gu8eFDEqz/Jm//GbZuDt j4YeLw3w8y8IJHCoOt+O4WNza3tneJuaW//4PCo fHzSNnGqObR4LGPdDZgB KRS0UKCEbqKBRYGETjC5 m/udJ9BGxOoBpwn4ERsp EQrO0EpNHJQrbs1dgK4T LycVkqMxKH/1hzFPI1DI JTOm57kJ+hnTKLiEWamfGkgYn7AR9 CxVLALjZ4tDZ/TCKkMax tqWQrpQf09kLDJmGgW2M 2I4NqveXPzP66UY3vqZU EmKoPhyUZhKijGdf02HQ gNHObWEcS3srZSPmWYcb TYlG4K3+vI6aV/WvOua27yq1Kt5H EVyRs5JlXjkhtTJPWmQF uEEyDN5JW/Oo/PivDsfy 9aCk8+ckj9wPn8A2amM4g==</latexit>t RealSequences::<latexit sha1_base64="dT/gVfaIm94xI8u/v/+ooFOL5dM=">AAAB6HicbVBNS8NAEN3U r1q/qh69LBahp5KIoseC F48t2A9oQ9lsJ+3azSbsToQS+gu8eFDEqz/Jm//GbZuDt j4YeLw3w8y8IJHCoOt+O4WNza3tneJuaW//4PCo fHzSNnGqObR4LGPdDZgB KRS0UKCEbqKBRYGETjC5 m/udJ9BGxOoBpwn4ERsp EQrO0EpNHJQrbs1dgK4T LycVkqMxKH/1hzFPI1DI JTOm57kJ+hnTKLiEWamfGkgYn7AR9 CxVLALjZ4tDZ/TCKkMax tqWQrpQf09kLDJmGgW2M 2I4NqveXPzP66UY3vqZU EmKoPhyUZhKijGdf02HQ gNHObWEcS3srZSPmWYcb TYlG4K3+vI6aV/WvOua27yq1Kt5H EVyRs5JlXjkhtTJPWmQF uEEyDN5JW/Oo/PivDsfy 9aCk8+ckj9wPn8A2amM4g==</latexit>t<latexit sha1_base64="dT/gVfaIm94xI8u/v/+ooFOL5dM=">AAAB6HicbVBNS8NAEN3U r1q/qh69LBahp5KIoseC F48t2A9oQ9lsJ+3azSbsToQS+gu8eFDEqz/Jm//GbZuDt j4YeLw3w8y8IJHCoOt+O4WNza3tneJuaW//4PCo fHzSNnGqObR4LGPdDZgB KRS0UKCEbqKBRYGETjC5 m/udJ9BGxOoBpwn4ERsp EQrO0EpNHJQrbs1dgK4T LycVkqMxKH/1hzFPI1DI JTOm57kJ+hnTKLiEWamfGkgYn7AR9 CxVLALjZ4tDZ/TCKkMax tqWQrpQf09kLDJmGgW2M 2I4NqveXPzP66UY3vqZU EmKoPhyUZhKijGdf02HQ gNHObWEcS3srZSPmWYcb TYlG4K3+vI6aV/WvOua27yq1Kt5H EVyRs5JlXjkhtTJPWmQF uEEyDN5JW/Oo/PivDsfy 9aCk8+ckj9wPn8A2amM4g==</latexit>t<latexit sha1_base64="XV0srffAjb3AtO2Varll Wm8ogxw=">AAACAHicbVDLSsNAFJ3U V62vqAsXbgaL4EJKIoou C25cSQX7gDaEyXTSDp1M wsyNWEI2/oobF4q49TPc +TdO2yy09cDlHs65l5l7g kRwDY7zbZWWlldW18rrl Y3Nre0de3evpeNUUdaks YhVJyCaCS5ZEzgI1kkUI 1EgWDsYXU/89gNTmsfyH sYJ8yIykDzklICRfPsg6 wF7hCCcdQ7ZbZ7nvuvbV afmTIEXiVuQKirQ8O2vX j+macQkUEG07rpOAl5GFHA qWF7ppZolhI7IgHUNlSR i2sumB+T42Ch9HMbKlAQ8VX9vZC TSehwFZjIiMNTz3kT8z+umEF55GZdJCkzS2UNhKj DEeJIG7nPFKIixIYQqbv 6K6ZAoQsFkVjEhuPMnL5 LWWc29qDl359X6aRFHGR 2iI3SCXHSJ6ugGNVATUZ SjZ/SK3qwn68V6tz5moy Wr2NlHf2B9/gDo3pcs&l t;/latexit>N1<latexit sha1_base64="hiVDDRSYoas8jb8zQY82 NgyMFro=">AAACAHicbVDLSsNAFJ34 rPUVdeHCzWARXEhJRNFl wY0LkQr2AW0Ik+mkHTqZhJkbsYRs/BU3Lh Rx62e482+ctllo64HLPZxzLzP3BIn gGhzn21pYXFpeWS2tldc 3Nre27Z3dpo5TRVmDxiJ W7YBoJrhkDeAgWDtRjES BYK1geDX2Ww9MaR7Lexg lzItIX/KQUwJG8u39rAv sEYJw2jlkt3me+ze+XXGqzgR4nrgFqaACdd/+6vZimkZMAhVE647rJOBl RAGnguXlbqpZQuiQ9FnH UEkipr1sckCOj4zSw2Gs TEnAE/X3RkYirUdRYCYj AgM9643F/7xOCuGll3GZ pMAknT4UpgJDjMdp4B5X jIIYGUKo4uavmA6IIhRM ZmUTgjt78jxpnlbd86pz d1apnRRxlNABOkTHyEUX qIauUR01EEU5ekav6M16 sl6sd+tjOrpgFTt76A+szx8R2ZdH</latexit>NL<latexit sha1_base64="3xCNGGtY/sGp75PPJjX1 DCtO+k0=">AAACAnicbVDLSsNAFJ3U V62vqCtxEyyCCy2JKLos uHEhUsE+oA1hMp20QyeTMHMjlhDc +CtuXCji1q9w5984TbPQ6 oHLPZxzLzP3+DFnCmz7yyjNzS8sLpWXK yura+sb5uZWS0WJJLRJIh7Jjo 8V5UzQJjDgtBNLikOf07 Y/upj47TsqFYvELYxj6o Z4IFjACAYteeZOD+g9+EGadwbpdZZ56dWRk3lm1 a7ZOay/xClIFRVoeOZnr x+RJKQCCMdKdR07BjfFEhj hNKv0EkVjTEZ4QLuaChx S5ab5CZm1r5W+FURSlwArV39upDhUahz6 ejLEMFSz3kT8z+smEJy7KRNxAlSQ6UNBwi 2IrEkeVp9JSoCPNcFEMv 1XiwyxxAR0ahUdgjN78l /SOq45pzX75qRaPyziKK NdtIcOkIPOUB1dogZqIo Ie0BN6Qa/Go/FsvBnv09 GSUexso18wPr4B/GuXuQ ==</latexit>NL1GeneratedSequences: :<latexit sha1_base64="dT/gVfaIm94xI8u/v/+ooFOL5dM=">AAAB6HicbVBNS8NAEN3U r1q/qh69LBahp5KIoseC F48t2A9oQ9lsJ+3azSbsToQS+gu8eFDEqz/Jm//GbZuDt j4YeLw3w8y8IJHCoOt+O4WNza3tneJuaW//4PCo fHzSNnGqObR4LGPdDZgB KRS0UKCEbqKBRYGETjC5 m/udJ9BGxOoBpwn4ERsp EQrO0EpNHJQrbs1dgK4T LycVkqMxKH/1hzFPI1DI JTOm57kJ+hnTKLiEWamfGkgYn7AR9 CxVLALjZ4tDZ/TCKkMax tqWQrpQf09kLDJmGgW2M 2I4NqveXPzP66UY3vqZU EmKoPhyUZhKijGdf02HQ gNHObWEcS3srZSPmWYcb TYlG4K3+vI6aV/WvOua27yq1Kt5H EVyRs5JlXjkhtTJPWmQF uEEyDN5JW/Oo/PivDsfy 9aCk8+ckj9wPn8A2amM4g==</latexit>t<latexit sha1_base64="dT/gVfaIm94xI8u/v/+ooFOL5dM=">AAAB6HicbVBNS8NAEN3U r1q/qh69LBahp5KIoseC F48t2A9oQ9lsJ+3azSbsToQS+gu8eFDEqz/Jm//GbZuDt j4YeLw3w8y8IJHCoOt+O4WNza3tneJuaW//4PCo fHzSNnGqObR4LGPdDZgB KRS0UKCEbqKBRYGETjC5 m/udJ9BGxOoBpwn4ERsp EQrO0EpNHJQrbs1dgK4T LycVkqMxKH/1hzFPI1DI JTOm57kJ+hnTKLiEWamfGkgYn7AR9 CxVLALjZ4tDZ/TCKkMax tqWQrpQf09kLDJmGgW2M 2I4NqveXPzP66UY3vqZU EmKoPhyUZhKijGdf02HQ gNHObWEcS3srZSPmWYcb TYlG4K3+vI6aV/WvOua27yq1Kt5H EVyRs5JlXjkhtTJPWmQF uEEyDN5JW/Oo/PivDsfy 9aCk8+ckj9wPn8A2amM4g==</latexit>t<latexit sha1_base64="dT/gVfaIm94xI8u/v/+ooFOL5dM=">AAAB6HicbVBNS8NAEN3U r1q/qh69LBahp5KIoseC F48t2A9oQ9lsJ+3azSbsToQS+gu8eFDEqz/Jm//GbZuDt j4YeLw3w8y8IJHCoOt+O4WNza3tneJuaW//4PCo fHzSNnGqObR4LGPdDZgB KRS0UKCEbqKBRYGETjC5 m/udJ9BGxOoBpwn4ERsp EQrO0EpNHJQrbs1dgK4T LycVkqMxKH/1hzFPI1DI JTOm57kJ+hnTKLiEWamfGkgYn7AR9 CxVLALjZ4tDZ/TCKkMax tqWQrpQf09kLDJmGgW2M 2I4NqveXPzP66UY3vqZU EmKoPhyUZhKijGdf02HQ gNHObWEcS3srZSPmWYcb TYlG4K3+vI6aV/WvOua27yq1Kt5H EVyRs5JlXjkhtTJPWmQF uEEyDN5JW/Oo/PivDsfy 9aCk8+ckj9wPn8A2amM4g==</latexit>t<latexit sha1_base64="uFm4wfu5bhv9EYQg+A5NABDk3ss=">AAACBHicbVDLSsNAFJ3U V62vqMtugkVwISURRZcF N4IgFewDmhAm00k7dDIJ MzdiCVm48VfcuFDErR/h zr9x2mahrQcu93DOvczc EyScKbDtb6O0tLyyulZe r2xsbm3vmLt7bRWnktAW iXksuwFWlDNBW8CA024i KY4CTjvB6HLid+6pVCwWdzBOqBfhgWAhIx i05JtVd4ghc4E+QBDOOoPsJs9z/9o3a3bd nsJaJE5BaqhA0ze/3H5M 0ogKIBwr1XPsBLwMS2CE 07zipoommIzwgPY0FTii ysumR+TWoVb6VhhLXQKsqfp7I8 ORUuMo0JMRhqGa9ybif1 4vhfDCy5hIUqCCzB4KU2 5BbE0SsfpMUgJ8rAkmku m/WmSIJSagc6voEJz5kx dJ+6TunNXt29Na47iIo4yq6 AAdIQedowa6Qk3UQgQ9o mf0it6MJ+PFeDc+ZqMlo9jZR39gfP4AODKZ Bw==</latexit>ˆNK<latexit sha1_base64="J6PxukO1YkO4EsxAQAu1 q1ZO1lY=">AAACBHicbVDLSsNAFJ3U V62vqMtugkVwISUpii4L blxJBfuAJoTJdNIOnUzC zI1YQhZu/BU3LhRx60e4 82+ctllo64HLPZxzLzP3BAl nCmz72yitrK6tb5Q3K1v bO7t75v5BR8WpJLRNYh7 LXoAV5UzQNjDgtJdIiqO A024wvpr63XsqFYvFHUw S6kV4KFjICAYt+WbVHWHIXKAPEITzziC7y fPcb/hmza7bM1jLxClID RVo+eaXO4hJGlEBhGOl+o6dgJdhCYxwmlfcVNEEk zEe0r6mAkdUednsiNw61 srACmOpS4A1U39vZDhSa hIFejLCMFKL3lT8z+unEF56GRNJClSQ+UNhyi2IrWki1oBJSoBPN MFEMv1Xi4ywxAR0bhUdg rN48jLpNOrOed2+Pas1T4s4yqiKjtAJctAF aqJr1EJtRNAjekav6M14 Ml6Md+NjPloyip1D9AfG5w8STp ju</latexit>ˆN2<latexit sha1_base64="uFXSBcpJ5+nkseLC8xeyINwE/90=">AAACBHicbVDLSsNAFJ34 rPUVddnNYBFcSElE0WXB jSupYB/QhjCZTtqhk0mY uRFLyMKNv+LGhSJu/Qh3/o3TNgttPX C5h3PuZeaeIBFcg+N8W0vLK6tr66WN8ubW9s 6uvbff0nGqKGvSWMSqEx DNBJesCRwE6ySKkSgQrB 2MriZ++54pzWN5B+OEeREZSB5ySsBIvl3pDQ lkPWAPEISzziG7yfPcd3 276tScKfAicQtSRQUavv 3V68c0jZgEKojWXddJwM uIAk4Fy8u9VLOE0BEZsK 6hkkRMe9n0iBwfGaWPw1 iZkoCn6u+NjERaj6PATEYEhnrem4j /ed0Uwksv4zJJgUk6eyh MBYYYTxLBfa4YBTE2hFD FzV8xHRJFKJjcyiYEd/7 kRdI6rbnnNef2rFo/KeI ooQo6RMfIRReojq5RAzU RRY/oGb2iN+vJerHerY/Z6JJV7BygP7 A+fwAQypjt</latexit>ˆN1<latexit sha1_base64="NkoxNJ88XnxReKlUqcbk 9Kvp7xg=">AAACBHicbVDLSsNAFJ34 rPUVddnNYBFcSElE0WXB jSupYB/QhjCZTtqhk0mY uRFLyMKNv+LGhSJu/Qh3/o3TNgttPX C5h3PuZeaeIBFcg+N8W0vLK6tr66WN8ubW9s 6uvbff0nGqKGvSWMSqEx DNBJesCRwE6ySKkSgQrB 2MriZ++54pzWN5B+OEeREZSB5ySsBIvl3pDQ lkPWAPEISzziG7yfPcH/ l21ak5U+BF4hakigo0fPur149pGj EJVBCtu66TgJcRBZwKlp d7qWYJoSMyYF1DJYmY9r LpETk+Mkofh7EyJQFP1d8bGYm0 HkeBmYwIDPW8NxH/87op hJdexmWSApN09lCYCgwx niSC+1wxCmJsCKGKm79iOiSKU DC5lU0I7vzJi6R1WnPPa 87tWbV+UsRRQhV0iI6Riy5QHV2j Bmoiih7RM3pFb9aT9WK9 Wx+z0SWr2DlAf2B9/gBospk n</latexit>ˆNk<latexit sha1_base64="T9nR/d243bE6Q7r/j2Da gzL6Qd4=">AAACAHicbVDLSsNAFJ3U V62vqAsXbgaL4EJKIoou C25cSQX7gDaEyXTSDp1M wsyNWEI2/oobF4q49TPc +TdO2yy09cDlHs65l5l7g kRwDY7zbZWWlldW18rrl Y3Nre0de3evpeNUUdaks YhVJyCaCS5ZEzgI1kkUI 1EgWDsYXU/89gNTmsfyH sYJ8yIykDzklICRfPsg6 wF7hCCcdQ7ZbZ7nvvDtq lNzpsCLxC1IFRVo+PZXrx/TNGISqCBad10nA S8jCjgVLK/0Us0SQkdkw LqGShIx7WXTA3J8bJQ+DmNlSgKeqr83MhJpPY4C MxkRGOp5byL+53VTCK+8jMskBSbp7KEwFRhiPEk D97liFMTYEEIVN3/FdEg UoWAyq5gQ3PmTF0nrrOZ e1Jy782r9tIijjA7RETp BLrpEdXSDGqiJKMrRM3p Fb9aT9WK9Wx+z0ZJV7OyjP7A+fwBCWZdn</latexit>Nl<latexit sha1_base64="dT/gVfaIm94xI8u/v/+ooFOL5dM=">AAAB6HicbVBNS8NAEN3U r1q/qh69LBahp5KIoseC F48t2A9oQ9lsJ+3azSbsToQS+gu8eFDEqz/Jm//GbZuDt j4YeLw3w8y8IJHCoOt+O4WNza3tneJuaW//4PCo fHzSNnGqObR4LGPdDZgB KRS0UKCEbqKBRYGETjC5 m/udJ9BGxOoBpwn4ERsp EQrO0EpNHJQrbs1dgK4T LycVkqMxKH/1hzFPI1DI JTOm57kJ+hnTKLiEWamfGkgYn7AR9 CxVLALjZ4tDZ/TCKkMax tqWQrpQf09kLDJmGgW2M 2I4NqveXPzP66UY3vqZU EmKoPhyUZhKijGdf02HQ gNHObWEcS3srZSPmWYcb TYlG4K3+vI6aV/WvOua27yq1Kt5H EVyRs5JlXjkhtTJPWmQF uEEyDN5JW/Oo/PivDsfy 9aCk8+ckj9wPn8A2amM4g==</latexit>t 0.25
英語(論文から抽出)日本語訳スコア
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
τ earns a high reward only when it is similar to most real sequences. τ ほとんどの実数列に類似している場合にのみ高い報酬を得る。 0.78
This setting is unnecessary even unreasonable in our problem: a generated sequence is likely to close to a small number of real sequences because the real sequences are heterogeneous and yield different Hawkes pro- この設定は、我々の問題では不合理である: 生成したシーケンスは、実列が不均一であり、異なるホークをプロにするので、少数の実列に近い可能性が高い。 0.57
Z exp( r((cid:99)N ,N ) Z exp(r((cid:99)N ,N ) 0.96
empirically as an exponential pay-off distribution, i.e., ), where Z is the normaliz- z が正規分布である指数的ペイオフ分布、すなわち ) として経験的に 0.78
cesses. Secondly, the original RAML implements q((cid:99)N|N ) q((cid:99)N|N ) = 1 ing constant, τ is the hyperparameter, and r((cid:99)N , N ) is a bution q((cid:99)N , N ) based on the HOT distance and the reward maxNl∈N q((cid:99)Nk, Nl) is more reasonable and interpretable. 休憩だ 第二に、元の RAML は q((cid:99)N|N ) q((cid:99)N|N ) = 1 ing constant, τ はハイパーパラメータ、r((cid:99)N , N ) は HOT 距離に基づいてブチオン q((cid:99)N , N ) であり、報酬 maxNl~N q((cid:99)Nk, Nl) はより合理的で解釈可能である。 0.53
predefined reward function. 予め定義された報酬機能。 0.48
Different from the original RAML, our RAML-HOT method computes the joint distri- 元のRAMLと異なり、私たちのRAML-HOTメソッドはジョイントディトリを計算します。 0.56
Algorithm 1 shows the steps of our learning method and the original RAML when learning a GHP model. アルゴリズム1は、GHPモデルを学ぶ際に、学習方法と元のRAMLのステップを示す。 0.76
Given L real sequences, for each of them we denote O(V ) as the number of its event types and O(I) the number of events per event type. l 個の実数列が与えられると、それぞれ、そのイベントタイプの数として o(v) と、イベントタイプ当たりのイベント数 o(i) と表現される。 0.76
When learning GHP, RAML-HOT generates a batch of sequences and computes its HOT distance to a batch of real sequences. GHPを学習すると、RAML-HOTは一連のシーケンスを生成し、そのHOT距離を実際のシーケンスのバッチに計算する。
訳抜け防止モード: GHPを学ぶとき、RAML - HOTは一連のシーケンスを生成する HOT距離を実数列のバッチに計算する。
0.70
Because of solving B2 + 1 optimal transport problems, its computational complexity is O(B2IV 2), where B is batch size. B2 + 1 の最適輸送問題を解くため、計算複雑性は O(B2IV2) であり、B はバッチサイズである。 0.80
Regarding computational cost, GHP is suitable for modeling sparse heterogeneous event sequences, in which both V and I are small and thus our RAML-HOT method is efficient. 計算コストに関しては、GHPはVとIの両方が小さく、RAML-HOT法が効率的であるスパース不均一なイベントシーケンスのモデリングに適しています。 0.59
Such sequences are common in real-world applications: i) The admissions of different patients in a hospital cover many kinds of diseases, but each patient often has a limited number of diseases and admissions. このような配列は現実の応用においてよく見られる: i) 病院における異なる患者の入院は、多くの種類の疾患をカバーしているが、各患者には限られた数の病気や入院があることが多い。 0.64
ii) The Linkedin users cover many types of jobs, but each user has few job-hopping behaviors among a small number of jobs. ii) linkedin のユーザは,多くの種類のジョブをカバーしているが,個々のジョブには,ジョブホッピング動作がほとんどない。 0.73
In such situations, GHP captures the point process per sequence, whose number of event types (i.e., V ) is limited. このような状況では、GHPは、イベントの種類(V)の数が限られているシーケンスごとのポイントプロセスをキャプチャします。 0.67
Compared to modeling a large point process model for all the sequences, applying our GHP model can mitigate the risk of over-fitting. すべてのシーケンスに対する大きなポイントプロセスモデルのモデリングと比較して、ghpモデルの適用は過剰フィッティングのリスクを軽減します。
訳抜け防止モード: すべてのシーケンスに対する大きなポイントプロセスモデルのモデリングと比較します。 ghpモデルの適用 過剰フィッティングのリスクを軽減できる。
0.77
4. Related Work Hawkes processes. 4. 関連する作業ホークスプロセス。 0.80
Because of its quantitative power and good interpretability, Hawkes process has been a significant tool for event sequence analysis and achieved encouraging performance in many applications like social network analysis (Zhou et al., 2013; Farajtabar et al., 2017) and financial engineering (Bacry et al., 2015). その定量的なパワーと優れた解釈性により、ホークスプロセスはイベントシーケンス分析の重要なツールとなり、ソーシャルネットワーク分析(Zhou et al., 2013; Farajtabar et al., 2017)や金融エンジニアリング(Bacry et al., 2015)などの多くのアプリケーションでパフォーマンスを向上しました。 0.86
These years, many efforts have been made to develop the variants of Hawkes process, e.g., the mixture model of Hawkes processes (Xu & Zha, 2017), the recurrent neural networks in the continuous time (Du et al., 2016; Mei & Eisner, 2017) and the Hawkes processes with attention mechanisms (Zhang et al., 2020; Zuo et al., 2020). 近年、ホークス過程の混合モデル(Xu & Zha, 2017)、連続時間における繰り返しニューラルネットワーク(Du et al., 2016; Mei & Eisner, 2017)、および注意メカニズムを持つホークス過程(Zhang et al., 2020; Zuo et al., 2020)など、ホークス過程の変種を開発するために多くの努力がなされている。 0.64
Most existing models are learned by the maximum likelihood estimation. 既存のモデルの多くは最大確率推定によって学習される。 0.72
Recently, more cuttingedge techniques are applied, e.g., Wasserstein generative adversarial network (Xiao et al., 2017), reinforcement learn- 近年,wassersteingenerati ve adversarial network (xiao et al., 2017) の強化学習など,最先端技術が採用されている。 0.77
Algorithm 1 Learning a GHP model 1: Input Real event sequences N . アルゴリズム1 GHPモデルを学ぶ1:入力実イベントシーケンスN。 0.66
2: Initialize the model parameter θ randomly. 2: モデルパラメータ θ をランダムに初期化する。 0.81
3: for each epoch for each batch of real sequences {Nb}B 4: 5: 6: 7: 3:実数列 {nb}b 4: 5: 6: 7:の各バッチの各エポックについて。 0.67
Generate B sequences {(cid:99)Nb}B Calculate d((cid:99)Nb, Nb(cid:48) ) by (10) and obtain the matrix D. Set the reward function r((cid:99)Nb, Nb(cid:48) ) = −d((cid:99)Nb, Nb(cid:48) ) and q((cid:99)Nb|Nb(cid:48) ) an exponential pay-off distribution. 報酬関数 r((cid:99)Nb, Nb(cid:48) ) = −d((cid:99)Nb, Nb(cid:48) ) and q((cid:99)Nb|Nb(cid:48) ) a exponential pay-off distribution。
訳抜け防止モード: 生成 B シーケンス { ( cid:99)Nb}B 計算 d((cid:99)Nb,Nb(cid: 48 ) ) by ( 10 ) 報酬関数 r((cid:99)Nb, Nb(cid:48 ) ) = −d((cid:99)Nb, Nb(cid:48 ) ) and q((cid:99)Nb|Nb(cid:48 ) ) a exponential pay - off distribution 。
0.92
Solve (9) and obtain Q∗ = [q∗((cid:99)Nb, Nb(cid:48) )]. 9) を解いて Q∗ = [q∗((cid:99)Nb, Nb(cid:48) ] を得る。 0.85
Our RAML-HOT: b=1 ⊂ N RAML-HOT: b=1 > N 0.77
b=1 via (4). b=1 から (4) 。 0.83
RAML: 8: 9: 10: RAML 8: 9: 10: 0.73
Calculate the loss function in (8). 損失関数を (8) で計算する。 0.81
Update θ by the Adam algorithm (Kingma & Ba, 2014). θをAdamアルゴリズムで更新する(Kingma & Ba, 2014)。 0.81
ing (Li et al., 2018), and noisy contrastive estimation (Mei et al., 2020). ing (Li et al., 2018), and noisy contrastive estimation (Mei et al., 2020)。 0.76
However, most existing methods cannot learn multiple Hawkes processes with different event types. しかし、既存のメソッドの多くは、異なるイベントタイプを持つ複数のhawkesプロセスを学ぶことができない。 0.62
Graphons. Graphon is a nonparametric graph model generating arbitrary-size graphs in an infinite dimensional space (Lov´asz, 2012). グラフ。 Graphonは無限次元空間で任意のサイズのグラフを生成する非パラメトリックグラフモデルである(Lov ́asz, 2012)。 0.69
Given observed graphs, most existing methods learn graphons as stochastic block models (Channarond et al., 2012; Airoldi et al., 2013; Chan & Airoldi, 2014), low-rank matrices (Keshavan et al., 2010; Chatterjee et al., 2015; Xu, 2018) or Gromov-Wasserstein barycenters (Xu et al., 2020), which approximate graphons by 2D step functions based on the weak regularity lemma (Frieze & Kannan, 1999). 観測されたグラフが与えられた場合、既存のほとんどの手法は、確率的ブロックモデル(Channarond et al., 2012; Airoldi et al., 2013; Chan & Airoldi, 2014)、低ランク行列(Keshavan et al., 2010; Chatterjee et al., 2015; Xu, 2018)またはグロモフ・ワッサーシュタイン・バリセンタ(Xu et al., 2020)としてグラノンを学習する。
訳抜け防止モード: 観察されたグラフ。 ほとんどの既存の方法は、確率ブロックモデル(Channarond et al ., 2012 ; Airoldi et al ., 2013 ; Chan & Airoldi, 2014 )としてグラフを学習します。 Low - rank matrices (Keshavan et al ., 2010 ; Chatterjee et al ., 2015 ; Xu, 2018 ) or Gromov - Wasserstein barycenters (Xu et al ., 2020 ) 弱正規性補題(Frieze & Kannan, 1999)に基づく2次元ステップ関数でグラフを近似する。
0.87
Optimal transport. The theory of optimal transport (Villani, 2008) has been widely used in distribution estimation (Boissard et al., 2015) and matching (Courty et al., 2017), and data generation (Arjovsky et al., 2017). 最適輸送。 最適輸送の理論(Villani, 2008)は、分布推定(Boissard et al., 2015)およびマッチング(Courty et al., 2017)およびデータ生成(Arjovsky et al., 2017)において広く使用されている。 0.76
Because of its usefulness, many methods have been proposed to compute the optimal transport efficiently, e.g., the Sinkhorn scaling algorithm (Cuturi, 2013) and its stochastic variant (Altschuler et al., 2017), the Bregman ADMM algorithm (Wang & Banerjee, 2014), the proximal point method (Xie et al., 2020), and the sliced Wasserstein distance (Kolouri et al., 2018). その有用性から、シンクホーンスケーリングアルゴリズム(Cuturi, 2013)とその確率的変種(Altschuler et al., 2017)、ブレグマンADMMアルゴリズム(Wang & Banerjee, 2014)、近点法(Xie et al., 2020)、スライスされたワッサースタイン距離(Kolouri et al., 2018)など、最適輸送を効率的に計算する多くの方法が提案されている。 0.73
Recently, hierarchical optimal transport (HOT) models are proposed in (Lee et al., 2019; Yurochkin et al., 2019), which achieve encouraging performance on data clustering. 近年,データクラスタリングの性能向上を目的とした階層的最適輸送(HOT)モデルが提案されている(Lee et al., 2019; Yurochkin et al., 2019)。 0.91
Our work makes the first attempt to introduce the HOT model into event sequence analysis. 我々の研究は、HOTモデルをイベントシーケンス解析に導入する最初の試みである。 0.81
5. Experiments 5.1. Experiments on synthetic data 5. 実験5.1。 合成データに関する実験 0.80
To test our learning method, we first learn GHP models from synthetic heterogeneous event sequences. 学習方法をテストするために,まず合成異種事象列からGHPモデルを学習する。 0.76
The synthetic sequences are generated by a predefined GHP model. 合成配列は、予め定義されたGHPモデルにより生成される。 0.64
For the predefined model, we set Vmax = 20, the decay kernel κ(t) = exp(−t), the number of Fourier bases (i.e., the S in (3)) of g(x, y) as 5, and sampled the model param- 事前定義されたモデルに対して、Vmax = 20 の崩壊核 κ(t) = exp(−t) を g(x, y) のフーリエ基底数(すなわち、S in (3))を 5 とし、モデルパラムをサンプリングする。 0.76
英語(論文から抽出)日本語訳スコア
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
(a) dfgw(ˆθ, θ) (a)dfgw(θ,θ) 0.72
(b) dot((cid:98)N ,N ) (b)ドット((cid:98)N,N) 0.90
(c) The influence of B (d) The influence of Vmax (c)Bの影響 (d)Vmaxの影響 0.68
Figure 3. The experimental results on synthetic data. 図3。 合成データによる実験結果。 0.75
The runtime in (c, d) is derived by running on a CPU. c, d) のランタイムは、CPU上で実行することで引き起こされる。 0.79
eter θ from a multivariate normal distribution. 多変量正規分布から eter θ を得る。 0.80
Given the predefined model, we simulate 120 event sequences in the time window [0, 50] by the steps in (4), in which we apply the Ogata’s thinning method (Ogata, 1981). 事前定義されたモデルを考えると, (4) のステップによって時刻ウィンドウ [0, 50] 内の120のイベントシーケンスをシミュレートし, オーガタの薄型化(ogata, 1981)法を適用した。 0.85
We select 100 sequences for learning a new GHP model, 10 sequences for validation, and the remaining 10 sequences for testing the learned model. 新しいGHPモデルを学ぶための100のシーケンス、検証のための10のシーケンス、学習モデルをテストするための残りの10のシーケンスを選択します。 0.66
We evaluate the learned model based on two criteria. 2つの基準に基づいて学習モデルを評価する。 0.72
Firstly, we compute the Fused GromovWasseserstein (FGW) distance (Vayer et al., 2018) between the estimated model parameter ˆθ and the ground truth θ: dfgw(ˆθ, θ) := inf π∈Π Ex,x(cid:48)∼π[| ˆf (x) − f (x(cid:48))|2]+ Ex,x(cid:48),y,y(cid :48)∼π⊗π[|ˆg(x, y) − g(x(cid:48), y(cid:48))|2]. 第一に、推定されたモデルパラメータ(θ)と基底真理(θ)の間のFused GromovWasseserstein (FGW) 距離(Vayer et al., 2018)を計算する: dfgw(シュθ, θ) := inf πコメント Ex,x(cid:48)*π[| シュフ(x) − f (x(cid:48))|2]+ Ex,x(cid:48)y,y(cid: 48)*ππ[| シュグ(x, y) − g(x(cid:48), y(cid:48)|2]。 0.89
(11) The FGW distance minimizes the expected error between the model parameters by finding finds an optimal transport π, whose implementation is in Appendix B. Secondly, we simulate a set of sequences based on the learned model and (11) FGW距離は、アペンディクスBに実装されている最適なトランスポートπを見つけることにより、モデルパラメータ間の予測誤差を最小化する。
訳抜け防止モード: (11) FGW距離は最適輸送πを見つけることによってモデルパラメータ間の予測誤差を最小化する。 次に、学習したモデルに基づいてシーケンスのセットをシミュレートします。
0.77
calculate its HOT distance to the testing set, i.e., dot((cid:98)N ,N ). テストセット、すなわち dot((cid:98)N ,N ) までの HOT 距離を計算する。 0.81
Setting the number of training sequences from 10 to 100, we test our learning method (RAML-HOT) and compare it with the original RAML (Norouzi et al., 2016). 10から100までのトレーニングシーケンスの数を設定し、学習方法(RAML-HOT)をテストし、元のRAML(Norouzi et al., 2016)と比較します。 0.82
For each method, we set the number of epochs to be 20 and the learning rate to be 0.01. 各手法では、エポック数を20に設定し、学習率を0.01に設定する。 0.68
For our RAML-HOT method, we apply the Sinkhorn scaling method (Cuturi, 2013) to compute the HOT distance. RAML-HOT法では,Sinkhorn スケーリング法 (Cuturi, 2013) を適用し,HOT 距離の計算を行った。 0.78
Figure 3(a) and Figure 3(b) show the averaged performance of the two learning methods in 10 trials. 図3(a)と図3(b)は、2つの学習方法の平均性能を10回の試験で示しています。 0.81
With the increase of training data, both our RAML-HOT and the RAML improve their learning results トレーニングデータの増加に伴い、RAML-HOTとRAMLの両方が学習結果を改善する 0.79
consistently, achieving smaller dfgw(ˆθ, θ) and dot((cid:98)N ,N ) 一貫して、より小さいdfgw(シュθ, θ)とドット((cid:98)N ,N)を達成する 0.71
with smaller standard deviation. 標準偏差が小さくなります 0.80
Moreover, we can find that our RAML-HOT method outperforms the RAML method on the two measurements. さらに、RAML-HOTメソッドは2つの測定値でRAMLメソッドより優れています。 0.68
This result verifies the feasibility of our RAML-HOT method and demonstrates its advantages claimed in Section 3.3 — the reward used in (7) is suitable for our problem, and leveraging the HOT distance works better than using the exponential pay-off distribution. この結果は、RAML-HOT法の有効性を検証し、セクション3.3で主張されている利点を実証します。(7)で使用される報酬は、私たちの問題に適しており、HOT距離を活用することは、指数的ペイオフ分布を使用するよりも優れています。 0.53
For our RAML-HOT method, the batch size B is a key hyperparameter. RAML-HOT法では,バッチサイズBが鍵となるハイパーパラメータである。 0.67
Generally, using a large batch size may improve learning results. 一般的に、大きなバッチサイズを使用することで、学習結果が改善される。 0.52
However, for our method, whose computational complexity is quadratic to the batch size, we しかし,計算複雑性がバッチサイズに2次である本手法では,本手法を用いる。 0.64
need to carefully set the batch size to achieve a trade-off between performance and efficiency. 性能と効率の間のトレードオフを達成するために慎重にバッチサイズを設定する必要があります。 0.61
Figure 3(c) visualize the runtime per batch and the dfgw(ˆθ, θ) achieved by our method with respect to different batch sizes. 図3(c)は、バッチ当たりのランタイムと、異なるバッチサイズに関して、この方法で達成されたdfgw(\θ, θ)を視覚化します。 0.51
We find that the dfgw(ˆθ, θ) is relatively stable but the runtime increases quadratically with respect to the batch size. dfgw(\θ, θ) は比較的安定であるが、ランタイムはバッチサイズに対して二次的に増加する。 0.72
According to the result, we set B = 10 in our experiments. その結果、実験ではB = 10を設定しました。 0.77
Besides the batch size, the maximum number of event types Vmax is also significant. バッチサイズに加えて、イベントタイプVmaxの最大数も重要である。 0.74
According to (4), for the event sequences generated by our GHP model, the expected number of their event types is E[V ] = . (4)によると、GHPモデルによって生成されたイベントシーケンスに対して、期待されるイベントタイプの数はE[V ] = です。 0.83
In the training phase, the maximum number of event types used to learn the GHP model, denoted as ˆVmax, may be different from the ground truth Vmax. トレーニングフェーズでは、ghpモデルを学ぶのに使用されるイベントタイプ最大数(vmax)は、基底真理vmaxとは異なる可能性がある。 0.68
Setting ˆVmax too large or too small may lead to the model misspecification problem. Vmaxの設定が大きすぎるか小さすぎると、モデルの誤仕様問題につながる可能性があります。 0.60
As shown in Figure 3(d), the runtime of our method increases quadratically with respect to ˆVmax, which verifies the computational complexity in Section 3.3. 図3(d)に示すように、我々の手法のランタイムは、セクション3.3の計算複雑性を検証した >Vmax に対して2次的に増加する。 0.66
The best dfgw(ˆθ, θ) is achieved when the ˆVmax = Vmax. 最良の dfgw( θ, θ) は、Vmax = Vmax のとき達成される。 0.93
In practice, given a set of training sequences, we calculate the averaged number of event types per sequence, denoted as ¯V , and set ˆVmax = 2 ¯V . 実際には、訓練列の集合が与えられた場合、列ごとの平均的なイベント型数を計算し、その列は「V」と表され、集合は「Vmax = 2 >V」となる。
訳抜け防止モード: 実際、トレーニングシーケンスのセットが与えられた場合、シーケンスごとのイベントタイプの平均数を計算する。 v と表記され、vmax = 2 で表される。
0.69
ˆVmax 2 5.2. ^Vmax 2 5.2. 0.75
Modeling sparse heterogeneous event sequences スパース不均一なイベントシーケンスのモデリング 0.56
As aforementioned, our GHP model is suitable for modeling sparse heterogeneous event sequences. 前述のように、ghpモデルは疎異種イベントシーケンスのモデリングに適している。 0.59
We demonstrate the usefulness of our GHP model on two representative real-world datasets. 2つの代表的な実世界のデータセットに対するGHPモデルの有用性を示す。 0.62
The first is the Linkedin dataset, which contains the job-hopping and promotion behaviors of 2,439 Linkedin users (Xu et al., 2017). 1つ目はlinkedinデータセットで、2,439人のlinkedinユーザーのジョブホッピングとプロモーション行動を含んでいる(xu et al., 2017)。 0.69
The dataset has 3,730 kinds of jobs (i.e., the event types). データセットには3,730種類のジョブ(すなわちイベントタイプ)がある。 0.80
However, most users seldom change their jobs, and each of their event sequences contains 1 - 6 events in general. しかし、ほとんどのユーザーはほとんどジョブを変更せず、各イベントシーケンスには一般的に1から6のイベントが含まれています。 0.69
The second is the MIMIC-III dataset. 2つ目はMIMIC-IIIデータセットです。 0.61
It contains 2,371 patients, each with more than two admissions in a hospital (Johnson et al., 2016). 患者数は2,371人であり、それぞれ病院で2回以上入院している(Johnson et al., 2016)。 0.75
The dataset covers 2,789 kinds of diseases, but each patient suffers from extremely few of them and has a limited number of admissions. このデータセットは2,789種類の疾患を扱っているが、各患者は極めて少数の疾患に苦しめられ、入所者数は限られている。 0.65
Given these two datasets, we apply our RAML-HOT method to learn GHP models and compare the models with state-of-the-art point process models. これらの2つのデータセットから,GHPモデルの学習にRAML-HOT法を適用し,そのモデルと最先端のポイント・プロセス・モデルを比較した。 0.62
Specifically, we consider six baselines: the classic Hawkes process (HP) (Zhou 具体的には6つのベースラインを考える:古典的ホークス過程(HP)(周) 0.65
20406080100The Number of Training Sequences0.0550.0600 .0650.0700.0750.0800 .0850.090Fused GW DistanceRAMLRAML-HOT 20406080100The Number of Training Sequences345678910Hi erarchical OT DistanceRAMLRAML-HOT 1020304050The Batch Size20406080100Runti me (second)0.0600.0650. 0700.0750.080Fused GW DistanceTime per batchdfgw(,)10203040 The Maximum Number of Event Types020406080100Run time (second)0.060.070.08 0.090.10Fused GW DistanceTime per batchdfgw(,) 20406080100 The Number of Training Sequences0.0550.0600 .0650.0750.0800.0859 0Fused GW DistanceRAML-HOT2040 80100The Number of Training Sequences345678910Hi erarchical OT DistanceRAML-HOT1020 20404050The Batch Size20406080100Runti me (second)0.0600.0650. 0700.0750.0750.080Fu sed GW DistanceTime per batchdfgw(,)102040Th e Maximum Number of Event Types020406080808040 timetime (second)0.060.070088 09010Fused GW DistanceTime per batchdfgw(,) 0.58
英語(論文から抽出)日本語訳スコア
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
Method HP TVHP RMTPP NHP SAHP THP GHPHP GHPTVHP 方法 HP TVHP RMTPP NHP SAHP THP GHPHP GHPTVHP 0.81
LinkedIn NLL 144.45±20.70 9.29±1.38 113.82±8.34 8.66±1.57 127.39±13.44 8.83±1.49 52.58±14.52 7.47±1.26 38.91±10.33 7.09±0.80 6.44±0.61 30.64±7.03 5.23±0.28 19.36±2.97 17.55±2.61 4.71±0.15 LinkedIn NLL 144.45±20.70 9.29±1.38 113.82±8.34 8.66±1.57 127.39±13.44 8.83±1.49 52.58±14.52 7.47±1.26 38.91±10.33 7.09±0.80 6.44±0.61 30.64±7.03 5.23±0.28 19.36±2.97 17.55±2.61 4.71±0.15 0.52
Table 1. Comparisons on real-world data 表1。 実世界データの比較 0.78
dot((cid:98)N ,N ) NLL dot((cid:98)N ,N ) NLL 1.00
MIMIC-III dot((cid:98)N ,N ) MIMIC-III dot((cid:98)N ,N ) 0.78
87.72±7.73 10.30±0.69 63.25±3.08 10.06±0.63 82.46±6.18 11.76±0.54 60.05±5.27 9.98±0.71 54.45±3.12 10.01±0.95 42.08±5.26 9.85±0.88 33.79±6.54 9.36±2.45 31.63±5.83 8.96±2.29 87.72±7.73 10.30±0.69 63.25±3.08 10.06±0.63 82.46±6.18 11.76±0.54 60.05±5.27 9.98±0.71 54.45±3.12 10.01±0.95 42.08±5.26 9.85±0.88 33.79±6.54 9.36±2.45 31.63±5.83 8.96±2.29 0.18
et al., 2013), the time-varying Hawkes process (TVHP) (Xu et al., 2017), the recurrent marked temporal point process (RMTPP) (Du et al., 2016), the neural Hawkes process (NHP) (Mei & Eisner, 2017), the self-attentive Hawkes process (SAHP) (Zhang et al., 2020), and the transformer Hawkes process (THP) (Zuo et al., 2020). et al., 2013), the time-varying hawkes process (tvhp) (xu et al., 2017), the recurrent marked temporal point process (rmtpp) (du et al., 2016), the neural hawkes process (nhp) (mei & eisner, 2017), the self-attentive hawkes process (sahp) (zhang et al., 2020) and the transformer hawkes process (thp) (zuo et al., 2020)。 0.72
For our GHP model, we implement it to generate classic Hawkes processes (i.e., GHPHP) and extend it to generate time-varying Hawkes processes (i.e., GHPTVHP). GHPモデルでは、古典的なホークスプロセス(GHPHP)を生成し、それを拡張して時間変動するホークスプロセス(GHPTVHP)を生成する。 0.63
For each dataset, we train the models above based on 80% sequences and test them on the remaining 20% sequences based on two measurements. 各データセットでは、上記のモデルを80%のシーケンスに基づいてトレーニングし、2つの測定に基づいて残りの20%のシーケンスでテストします。 0.70
Firstly, for each model we can simulate a set of event sequences and calculate their まず、各モデルについて、一連のイベントシーケンスをシミュレートし、それらを計算できます。 0.65
Secondly, given the learned method, we can calculate the negative log-likelihood (NLL) of the testing sequences. 第二に,学習した手法により,テストシーケンスの負の対数類似度(nll)を計算できる。 0.77
optimal transport distance to the testing set, i.e., dot((cid:98)N ,N ). テストセットへの最適な輸送距離、すなわちdot((cid:98)N ,N )。 0.76
When calculating dot((cid:98)N ,N ), our GHP models apply the dot((cid:98)N ,N ) を計算すると、GHP モデルが適用されます。 0.68
HOT distance based on (9, 10). HOT距離は (9, 10)。 0.64
The optimal transport Q∗ = [q∗(Nk, Nl)] derived by (9) helps match the simulated sequences with the testing ones. 9) によって導出される最適な輸送 Q は、シミュレートされたシーケンスとテストされたシーケンスを一致させるのに役立つ。 0.80
For each pair of the sequence, the optimal transport T ∗ = [T ∗uv] derived by (10) indicates the correspondence between the event types of the testing sequence in the latent event type space, } ∈ Ω for the reali.e., the latent event type {x1, ..., x|V| world event types V. For the v-th event type of the l-th testing sequence Nl, we first estimate the probability that it matches with the u-th latent event type of the k-th genu|v) ∝ T ∗uvq∗(Nk, Nl). 列の各対について、(10) によって導かれる最適なトランスポート t ∗ = [t ∗uv] は、実数列におけるテストシーケンスのイベントタイプ間の対応、すなわち、実数列 {x1, ..., x|v| world event types v を表す: l 番目のテストシーケンス nl の v 番目のイベントタイプについて、まず、k 番目のgenu|v の u 番目の潜在イベントタイプと一致する確率を推定する。
訳抜け防止モード: 列の各対について、(10 ) によって導かれる最適なトランスポート t ∗ = [t ∗uv ] は、潜在イベント型空間におけるテストシーケンスのイベントタイプ間の対応を示す。 } ∈ ω for the reali.e., the latent event type { x1, ..., x|v| world event type v. l - th test sequence nl, v - th event type まず、k - th genu|v の u - th latent event type と一致する確率を推定する。 t ∗uvq∗(nk , nl ) である。
0.85
Then, erated sequence ˆNk as p(xk u} as landmarks on Ω and approximate the probwe take {xk ability density p(x|v) by the kernel density estimation, i.e., p(x|v) = 1 Z(cid:80)u,k p(xk ), where Z is the normalizing constant and σ is the bandwidth of the Gaussian kernel. すると、消去された列は ω 上のランドマークとして p(xk u} として p(xk u} として、そして probwe は核密度推定によって {xk 能力密度 p(x|v) を近似する、すなわち p(x|v) = 1 z(cid:80)u,k p(xk ) ここで z は正規化定数、σ はガウス核の帯域である。 0.71
For each event type in the testing sequence, we select its latent event type corresponding to the largest p(x|v), i.e., x∗ = maxx p(x|v). テストシーケンスの各イベントタイプに対して、最大の p(x|v) に対応する潜在イベントタイプ、すなわち x∗ = maxx p(x|v) を選択する。 0.86
Given the latent event types, we obtain the Hawkes process from our GHP model and calculate the NLL of the testing sequence. 潜在的なイベントタイプを考えると、私たちはGHPモデルからホークスプロセスを取得し、テストシーケンスのNLLを計算します。 0.66
Table 1 shows the performance of various models in 10 trials. 表1は、様々なモデルのパフォーマンスを10のトライアルで示す。 0.76
In particular, the baselines are learned as a single point process with a huge number of event types from sparse event sequences, which have a high risk of over-fitting. 特にベースラインは、スパースなイベントシーケンスから膨大な数のイベントタイプを持つ単一ポイントプロセスとして学習され、オーバーフィッティングのリスクが高くなります。 0.77
Our GHP models, u|v) exp(−|x−xk u|2 GHPモデルです。 u|v) exp(−|x−xk u|2 0.59
2σ2 (a) Linkedin 2σ2 (a)Linkedin 0.69
(b) MIMIC-III (b)MIMIC-III 0.80
Figure 4. The graphons of the two real-world datasets. 図4。 2つの現実世界のデータセットのグラフ。 0.71
on the contrary, describe each sparse event sequence by a small point process sampled from an underlying graphon and learn the point processes jointly. 反対に、各スパースイベントシーケンスを、基礎となるgraphonからサンプリングされた小さなポイントプロセスで記述し、一緒にポイントプロセスを学ぶ。 0.67
As a result, we can find that our GHP models outperform the baselines consistently. その結果、我々のGHPモデルはベースラインを一貫して上回ることがわかった。 0.70
In Figure 4, we show the probability densities of some representative real-world event types in the latent space and check their triggering patterns on the graphons. 図4では、潜在空間における代表的な実世界の事象の確率密度を示し、グラフオン上のトリガーパターンを確認する。 0.73
The graphons are visualized the resolution 200 × 200. グラフは解像度200 × 200で視覚化されます。 0.73
For the Linkedin dataset, we find the pairs of “UCB, graduate student” and “Google, research scientist” in the graphon according to their probability density. Linkedinデータセットでは、確率密度に応じて「UCB、大学院生」と「Google、研究者」のペアがグラフに表示されます。 0.67
The values of the pairs indicate that a graduate student at UC Berkeley is likely to be a researcher at Google, while a researcher at Google may not be go back to school, which we think is reasonable in practice. このペアの価値は、UC Berkeleyの大学院生がGoogleの研究者である可能性が高いことを示していますが、Googleの研究者は学校に戻りません。
訳抜け防止モード: このペアの価値は、UC Berkeleyの大学院生がGoogleの研究者になる可能性が高いことを示している。 Googleの研究者は学校に戻らないかもしれないが、実際は妥当だと思う。
0.76
For the MIMIC-III dataset, we find the pairs of “Hypertensive kidney disease” and “Atherosclerosis” in the graphon. MIMIC-IIIデータセットでは,高血圧性腎疾患と動脈硬化の2つのペアがグラフンに存在する。 0.74
The values of the pairs reflect the following facts: if a patient has atherosclerosis, his risk of having the kidney disease caused by hypertensive will increase; however, the reasons for the hypertensive kidney disease are complicated, and a patient having this disease may not have atherosclerosis. 患者がアテローム性動脈硬化症を有する場合、高血圧症によって引き起こされる腎臓疾患を発症するリスクは増加するが、高血圧性腎臓疾患の理由は複雑であり、この疾患を有する患者はアテローム性動脈硬化症を持たない可能性がある。 0.78
6. Conclusions In this work, we propose a graphon-based Hawkes process model, capturing the generative mechanism of multiple point processes with graph structures from heterogeneous event sequences. 6. 本研究の結論として,様々なイベント列からグラフ構造を持つ多点プロセスの生成機構を捉えた,グラフェンベースのホークスプロセスモデルを提案する。 0.84
Our GHP model is a new member of hierarchical generative models for event sequence analysis. GHPモデルは、イベントシーケンス解析のための階層生成モデルの新しいメンバーです。 0.80
To our knowledge, it makes the first attempt to combine graphon models with point processes. 我々の知る限り、これはグラフモデルとポイントプロセスを組み合わせる最初の試みである。 0.73
In the future, we will improve GHP and its learning algorithm, e.g., developing efficient algorithms to compute the HOT distance with lower complexity and building the GHP model based on deep neural networks. 将来、我々はGHPとその学習アルゴリズムを改善し、例えば、より少ない複雑さでHOT距離を計算する効率的なアルゴリズムを開発し、深層ニューラルネットワークに基づくGHPモデルを構築する。 0.86
Additionally, the HOT distance used in our model provides a potential solution to align event types of heterogeneous event sequences. さらに、我々のモデルで使用されるHOT距離は、異種イベントシーケンスのイベントタイプを整列させる潜在的なソリューションを提供する。 0.69
Combining GHP with existing event sequence alignment methods (Xu et al., GHPと既存のイベントシーケンスアライメント手法を組み合わせる(Xu et al.) 0.82
Google, ScientistUCB,Student UCB, StudentGoogle, ScientistKidney Disease Atheros-cierosisAthe ros-cierosis KidneyDisease Google、ScientistUCB、StudentUCB、StudentUCB、ScientistKidney Disease Atheros-cierosisAthe ros-cierosis KidneyDisease 0.85
英語(論文から抽出)日本語訳スコア
2018; Trouleau et al., 2019; Luo et al., 2019), we plan to develop a new framework of data fusion and augmentation for large-scale point processes. 2018; Trouleau et al., 2019; Luo et al., 2019) では、大規模ポイントプロセスのためのデータ融合と拡張の新しいフレームワークの開発を計画している。 0.87
Cuturi, M. Sinkhorn distances: Lightspeed computation of optimal transport. Cuturi, M. Sinkhorn distances: 最適な輸送の光速計算。 0.88
In Advances in neural information processing systems, pp. In Advances in Neural Information Processing System, pp。 0.75
2292–2300, 2013. 2292–2300, 2013. 0.84
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
References Airoldi, E. M., Costa, T. B., and Chan, S. H. Stochastic blockmodel approximation of a graphon: Theory and consistent estimation. 参照 Airoldi, E.M., Costa, T.B., and Chan, S.H. Stochastic blockmodel approximation of a graphon: Theory and consistent estimate。 0.90
In Advances in Neural Information Processing Systems, pp. ニューラル・インフォメーション・プロセッシング・システムにおける進歩, pp. 0.59
692–700, 2013. 692–700, 2013. 0.84
Alaa, A. M., Hu, S., and Schaar, M. Learning from clinical judgments: Semi-markov-modulate d marked hawkes processes for risk prognosis. Alaa, A. M., Hu, S., Schaar, M. Learning from Clinical judgments: Semi-markov-modulate d marked hawkes process for risk prognosis。 0.94
In International Conference on Machine Learning, pp. 英語) international conference on machine learning, pp. 0.80
60–69, 2017. 60–69, 2017. 0.84
Altschuler, J., Weed, J., and Rigollet, P. Near-linear time approximation algorithms for optimal transport via Sinkhorn iteration. Altschuler, J., Weed, J., Rigollet, P. Near-linear time approximation algorithm for optimal transport via Sinkhorn iteration。 0.89
In Advances in Neural Information Processing Systems, pp. ニューラル・インフォメーション・プロセッシング・システムにおける進歩, pp. 0.59
1964–1974, 2017. 1964–1974, 2017. 0.84
Arjovsky, M., Chintala, S., and Bottou, L. Wasserstein Arjovsky, M., Chintala, S., and Bottou, L. Wasserstein 0.91
GAN. arXiv preprint arXiv:1701.07875, 2017. GAN! arXiv preprint arXiv:1701.07875, 2017 0.75
Bacry, E., Mastromatteo, I., and Muzy, J.-F. Hawkes processes in finance. Bacry, E., Mastromatteo, I., and Muzy, J.-F. Hawkes process in finance。 0.97
Market Microstructure and Liquidity, 1 (01):1550005, 2015. 市場構造と流動性, 1 (01):1550005, 2015 0.78
Blundell, C., Beck, J., and Heller, K. A. Modelling reciprocating relationships with hawkes processes. Blundell, C., Beck, J., and Heller, K. A. Modelling reciprocating relationship with hawkes process。 0.89
In Advances in Neural Information Processing Systems, pp. ニューラル・インフォメーション・プロセッシング・システムにおける進歩, pp. 0.59
2600–2608, 2012. 2600–2608, 2012. 0.84
Boissard, E., Le Gouic, T., Loubes, J.-M., et al. Boissard, E., Le Gouic, T., Loubes, J.-M., et al。 0.93
Distribution’s template estimate with Wasserstein metrics. wasserstein metricsによるディストリビューションのテンプレート推定。 0.70
Bernoulli, 21(2):740–759, 2015. Bernoulli, 21(2):740-759, 2015 0.95
Chan, S. and Airoldi, E. A consistent histogram estimator for exchangeable graph models. Chan, S. and Airoldi, E. 交換可能なグラフモデルに対する一貫したヒストグラム推定器。 0.71
In International Conference on Machine Learning, pp. 英語) international conference on machine learning, pp. 0.80
208–216, 2014. 208–216, 2014. 0.84
Channarond, A., Daudin, J.-J., Robin, S., et al. Channarond, A., Daudin, J.-J., Robin, S., など。 0.86
Classification and estimation in the stochastic blockmodel based on the empirical degrees. 経験的程度に基づく確率的ブロックモデルの分類と推定 0.66
Electronic Journal of Statistics, 6:2574–2601, 2012. Electronic Journal of Statistics, 6:2574–2601, 2012 0.84
Chatterjee, S. et al. Chatterjee, S. et al。 0.94
Matrix estimation by universal singular value thresholding. 普遍特異値しきい値による行列推定 0.74
The Annals of Statistics, 43(1):177– 214, 2015. The Annals of Statistics, 43(1):177–214, 2015 0.85
Chiu, S. N., Stoyan, D., Kendall, W. S., and Mecke, J. Stochastic geometry and its applications. Chiu, S. N., Stoyan, D., Kendall, W. S. and Mecke, J. Stochastic geometry とその応用 0.90
John Wiley & Sons, 2013. ジョン・ワイリー&サンズ、2013年。 0.54
Courty, N., Flamary, R., and Ducoffe, M. Learning Wasserstein embeddings. Courty, N., Flamary, R. and Ducoffe, M. Learning Wasserstein 埋め込み。 0.84
arXiv preprint arXiv:1710.07457, 2017. arXiv preprint arXiv:1710.07457, 2017 0.80
Du, N., Dai, H., Trivedi, R., Upadhyay, U., GomezRodriguez, M., and Song, L. Recurrent marked temporal point processes: Embedding event history to vector. Du, N., Dai, H., Trivedi, R., Upadhyay, U., GomezRodriguez, M., Song, L. Recurrent marked temporal point process: Embedding event history to vector。 0.83
In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp. 第22回ACM SIGKDD International Conference on Knowledge Discovery and Data Miningに参加して 0.69
1555–1564, 2016. 1555–1564, 2016. 0.84
Eichler, M., Dahlhaus, R., and Dueck, J. Graphical modeling for multivariate hawkes processes with nonparametric link functions. Eichler, M., Dahlhaus, R., and Dueck, J. 非パラメトリックリンク関数を持つ多変量ホーク過程のグラフィックモデリング。 0.83
Journal of Time Series Analysis, 38(2): 225–242, 2017. journal of time series analysis, 38(2): 225–242, 2017年。 0.89
Farajtabar, M., Wang, Y., Gomez-Rodriguez, M., Li, S., Zha, H., and Song, L. Coevolve: A joint point process model for information diffusion and network evolution. Farajtabar, M., Wang, Y., Gomez-Rodriguez, M., Li, S., Zha, H., and Song, L. Coevolve: 情報拡散とネットワーク進化のためのジョイントポイントプロセスモデル。 0.89
The Journal of Machine Learning Research, 18(1):1305– 1353, 2017. journal of machine learning research, 18(1):1305–1353, 2017年。 0.85
Frieze, A. and Kannan, R. Quick approximation to matrices and applications. Frieze, A. and Kannan, R. Quick approximation to matrices and applications 0.86
Combinatorica, 19(2):175–220, 1999. Combinatorica, 19(2):175–220, 1999。 0.89
Gao, S. and Caines, P. E. Graphon control of large-scale networks of linear systems. Gao, S. and Caines, P. E. Graphon control of large-scale network of linear systems。 0.87
IEEE Transactions on Automatic Control, 2019. IEEE Transactions on Automatic Control, 2019。 0.81
Hawkes, A. G. Spectra of some self-exciting and mutually ホークス, A. G. 自己興奮と相互のスペクトル 0.61
exciting point processes. ワクワクするポイントプロセス。 0.66
Biometrika, pp. Biometrika、pp。 0.70
83–90, 1971. 83–90, 1971. 0.84
Johnson, A. E., Pollard, T. J., Shen, L., Li-wei, H. L., Feng, M., Ghassemi, M., Moody, B., Szolovits, P., Celi, L. A., and Mark, R. G. MIMIC-III, a freely accessible critical care database. Johnson, A. E., Pollard, T. J., Shen, L., Li-wei, H. L., Feng, M., Ghassemi, M., Moody, B., Szolovits, P., Celi, L. A., Mark, R. G. MIMIC-IIIは、自由にアクセス可能なクリティカルケアデータベースである。 0.89
Scientific data, 3:160035, 2016. 科学データ, 3:160035, 2016 0.88
Keshavan, R. H., Montanari, A., and Oh, S. Matrix completion from a few entries. Keshavan, R. H., Montanari, A., and Oh, S. Matrix complete from few entry。 0.83
IEEE transactions on information theory, 56(6):2980–2998, 2010. IEEEによる情報理論のトランザクション、56(6):2980–2998, 2010。 0.80
Kingma, D. P. and Ba, J. Adam: A method for stochastic Kingma, D. P. and Ba, J. Adam:確率的方法 0.81
optimization. arXiv preprint arXiv:1412.6980, 2014. 最適化。 arXiv preprint arXiv:1412.6980, 2014 0.75
Kolouri, S., Pope, P. E., Martin, C. E., and Rohde, G. K. Sliced-wasserstein autoencoder: an embarrassingly simple generative model. Kolouri, S., Pope, P. E., Martin, C. E., and Rohde, G. K. Sliced-wasserstein autoencoder: 恥ずかしいほど単純な生成モデル。 0.91
arXiv preprint arXiv:1804.01947, 2018. arXiv preprint arXiv:1804.01947, 2018 0.80
Lee, J., Dabagia, M., Dyer, E., and Rozell, C. Hierarchical optimal transport for multimodal distribution alignment. Lee, J., Dabagia, M., Dyer, E., and Rozell, C. マルチモーダル分布アライメントのための階層的最適輸送。 0.90
In Advances in Neural Information Processing Systems, pp. ニューラル・インフォメーション・プロセッシング・システムにおける進歩, pp. 0.59
13453–13463, 2019. 13453–13463, 2019. 0.84
Li, S., Xiao, S., Zhu, S., Du, N., Xie, Y., and Song, L. Learning temporal point processes via reinforcement learning. Li, S., Xiao, S., Zhu, S., Du, N., Xie, Y., Song, L. 強化学習による時間的点過程の学習。 0.85
In Advances in neural information processing systems, pp. In Advances in Neural Information Processing System, pp。 0.75
10781–10791, 2018. 10781–10791, 2018. 0.84
英語(論文から抽出)日本語訳スコア
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
Lin, P., Guo, T., Wang, Y., Chen, F., et al. Lin、P.、Guo、T.、Wang、Y.、Chen、F.、等。 0.79
Infinite hidden semi-markov modulated interaction point process. 無限隠れセミマルコフ変調相互作用点過程。 0.71
Advances in Neural Information Processing Systems, 29: 3900–3908, 2016. ニューラル情報処理システムの進歩、29:3900-3908、2016。 0.73
Trouleau, W., Etesami, J., Grossglauser, M., Kiyavash, N., and Thiran, P. Learning hawkes processes under synchronization noise. Trouleau, W., Etesami, J., Grossglauser, M., Kiyavash, N., and Thiran, P. Learning hawkes process under sync noise。 0.80
In International Conference on Machine Learning, pp. 英語) international conference on machine learning, pp. 0.80
6325–6334. 6325–6334. 0.71
PMLR, 2019. 2019年、PMLR。 0.72
Liniger, T. J. Multivariate hawkes processes. Liniger, T. J. Multivariate hawkes process 0.89
PhD thesis, ETH Zurich, 2009. 博士論文。 ETHチューリッヒ、2009年。 0.62
Van Loan, C. F. and Golub, G. H. Matrix computations. Van Loan, C. F. and Golub, G. H. Matrix 計算 0.94
Johns Hopkins University Press Baltimore, 1983. ジョンズ・ホプキンス大学、ボルチモア、1983年。 0.59
Lov´asz, L. Large networks and graph limits, volume 60. Lov ́asz, L. Large Network and graph limit, volume 60。 0.89
American Mathematical Soc., 2012. The American Mathematical Soc., 2012年。 0.87
Luo, D., Xu, H., Zhen, Y., Ning, X., Zha, H., Yang, X., and Zhang, W. Multi-task multi-dimensional hawkes processes for modeling event sequences. Luo, D., Xu, H., Zhen, Y., Ning, X., Zha, H., Yang, X. and Zhang, W. Multi-task multi-dimensional hawkes process for modeling event sequences。 0.91
2015. Luo, D., Xu, H., and Carin, L. 2015. Luo, D., Xu, H., Carin, L。 0.79
wasserstein alignment for hawkes processes. ホークスプロセスのためのワサースタインアライメント。 0.55
preprint arXiv:1910.02096, 2019. arXiv:1910.02096, 2019 0.76
Fused gromovarXiv Fused gromovarXiv 0.85
Mei, H. and Eisner, J. M. The neural hawkes process: A neurally self-modulating multivariate point process. Mei, H. and Eisner, J. M. The neural hawkes process: A neurally self-modulating multivariate point process。 0.91
Advances in Neural Information Processing Systems, 30: 6754–6764, 2017. Neural Information Processing Systems, 30: 6754–6764, 2017 0.71
Mei, H., Wan, T., and Eisner, J. Noise-contrastive estimation for multivariate point processes. Mei, H., Wan, T., Eisner, J. 多変量点過程のノイズコントラスト推定 0.75
arXiv preprint arXiv:2011.00717, 2020. arXiv preprint arXiv:2011.00717, 2020 0.81
M´emoli, F. Gromov-Wasserstein distances and the metric approach to object matching. M ́emoli, F. Gromov-Wasserstein distances and the metric approach to object matching。 0.82
Foundations of computational mathematics, 11(4):417–487, 2011. 計算数学の基礎, 11(4):417–487, 2011。 0.78
Møller, J. and Rasmussen, J. G. Approximate simulation of hawkes processes. Møller, J. and Rasmussen, J. G. Approximate Simulation of hawkes process。 0.90
Methodology and Computing in Applied Probability, 8(1):53–64, 2006. 応用確率の方法論と計算, 8(1):53–64, 2006 0.87
Norouzi, M., Bengio, S., Jaitly, N., Schuster, M., Wu, Y., Schuurmans, D., et al. Norouzi, M., Bengio, S., Jaitly, N., Schuster, M., Wu, Y., Schuurmans, D.など。 0.80
Reward augmented maximum likelihood for neural structured prediction. 神経構造予測のための報酬最大可能性。 0.69
In Advances In Neural Information Processing Systems, pp. ニューラル情報処理システムにおける進歩, pp。 0.75
1723–1731, 2016. 1723–1731, 2016. 0.84
Ogata, Y. On lewis’ simulation method for point processes. 大田、Y。 点過程に対するLewisのシミュレーション手法について 0.67
IEEE transactions on information theory, 27(1):23–31, 1981. IEEEによる情報理論のトランザクション、27(1):23–31, 1981。 0.79
Peyr´e, G., Cuturi, M., et al. Peyr ́e, G., Cuturi, M., et al。 0.97
Computational optimal transport. Foundations and Trends® in Machine Learning, 11(5-6): 355–607, 2019. 最適輸送の計算。 Foundations and Trends® in Machine Learning, 11(5-6): 355–607, 2019。 0.83
Rabin, J., Peyr´e, G., Delon, J., and Bernot, M. Wasserstein barycenter and its application to texture mixing. Rabin, J., Peyr ́e, G., Delon, J., and Bernot, M. Wasserstein barycenterとそのテクスチャミキシングへの応用。 0.92
In International Conference on Scale Space and Variational Methods in Computer Vision, pp. In International Conference on Scale Space and Variational Methods in Computer Vision, pp. 0.85
435–446. Springer, 2011. 435–446. 2011年、スプリンガー。 0.64
Tank, A., Covert, I., Foti, N., Shojaie, A., and Fox, E. Neural granger causality for nonlinear time series. Tank, A., Covert, I., Foti, N., Shojaie, A., and Fox, E. Neural granger causality for nonlinear time series (英語) 0.87
arXiv preprint arXiv:1802.05842, 2018. arXiv preprint arXiv:1802.05842, 2018 0.80
Vayer, T., Chapel, L., Flamary, R., Tavenard, R., and Courty, N. Fused Gromov-Wasserstein distance for structured objects: theoretical foundations and mathematical properties. Vayer, T., Chapel, L., Flamary, R., Tavenard, R., and Courty, N. Fused Gromov-Wasserstein distance for structured objects: 理論的基礎と数学的性質。 0.91
arXiv preprint arXiv:1811.02834, 2018. arXiv preprint arXiv:1811.02834, 2018 0.79
Villani, C. Optimal transport: old and new, volume 338. Villani, C. Optimal transport: old and new, volume 338。 0.88
Springer Science & Business Media, 2008. Springer Science & Business Media、2008年。 0.81
Wang, H. and Banerjee, A. Bregman alternating direction wang, h. and banerjee, a. bregman alternating direction 0.91
method of multipliers. In NeurIPS, 2014. 乗算器の方法。 2014年、NeurIPSより。 0.75
Wang, Y., Du, N., Trivedi, R., and Song, L. Coevolutionary latent feature processes for continuous-time user-item interactions. Wang, Y., Du, N., Trivedi, R., and Song, L. Coevolutionary latent feature process for continuous-time user-item Interaction。 0.93
Advances in neural information processing systems, 29:4547–4555, 2016. ニューラル情報処理システムの進歩 (29:4547–4555, 2016) 0.70
Xiao, S., Farajtabar, M., Ye, X., Yan, J., Song, L., and Zha, H. Wasserstein learning of deep generative point process models. Xiao、S.、Farajtabar、M.、Ye、X.、Yan、J.、Song、L.、Zha、H.Wassersteinは深い生成点プロセスモデルを学びます。
訳抜け防止モード: Xiao, S., Farajtabar, M., Ye, X. Yan, J., Song, L., and Zha, H. Wasserstein learning of deep generative point process model.
0.87
In Advances in neural information processing systems, pp. In Advances in Neural Information Processing System, pp。 0.75
3247–3257, 2017. 3247–3257, 2017. 0.84
Xie, Y., Wang, X., Wang, R., and Zha, H. A fast proximal point method for computing exact Wasserstein distance. Xie, Y., Wang, X., Wang, R., Zha, H. 正確なWasserstein距離を計算するための高速近位点法。 0.81
In Uncertainty in Artificial Intelligence, pp. In Uncertainty in Artificial Intelligence, pp。 0.80
433–453. PMLR, 2020. 433–453. PMLR、2020年。 0.79
Xu, H. and Zha, H. A dirichlet mixture model of hawkes processes for event sequence clustering. Xu, H. and Zha, H. A dirichlet mix model of hawkes process for event sequence clustering。 0.83
Advances in Neural Information Processing Systems, 30:1354–1363, 2017. Neural Information Processing Systems, 30:1354–1363, 2017 0.82
Xu, H., Farajtabar, M., and Zha, H. Learning granger causality for hawkes processes. Xu, H., Farajtabar, M., Zha, H. Learning granger causality for hawkes process。 0.76
In International conference on machine learning, pp. 英語) international conference on machine learning, pp. 0.81
1717–1726, 2016a. 1717-1726、2016年。 0.62
Xu, H., Wu, W., Nemati, S., and Zha, H. Patient flow prediction via discriminative learning of mutually-correcting processes. Xu、H.、Wu、W.、Nemati、S.およびZha、H.相互補正プロセスの差別的な学習による患者フロー予測。 0.74
IEEE transactions on Knowledge and Data Engineering, 29(1):157–171, 2016b. IEEETransaction on Knowledge and Data Engineering, 29(1):157–171, 2016b. 0.96
Xu, H., Luo, D., and Zha, H. Learning hawkes processes from short doubly-censored event sequences. Xu, H., Luo, D., Zha, H. Learning hawkes process from short doublelycensored event sequences。 0.78
In International Conference on Machine Learning, pp. 英語) international conference on machine learning, pp. 0.80
3831–3840, 2017. 3831–3840, 2017. 0.84
Xu, H., Carin, L., and Zha, H. Learning registered point processes from idiosyncratic observations. Xu, H., Carin, L., Zha, H. 特異な観測から登録ポイントプロセスを学ぶ。 0.79
In International Conference on Machine Learning, pp. 英語) international conference on machine learning, pp. 0.80
5443–5452. 5443–5452. 0.71
PMLR, 2018. 2018年、PMLR。 0.68
英語(論文から抽出)日本語訳スコア
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
Xu, H., Luo, D., Zha, H., and Carin, L. Gromov-Wasserstein learning for graph matching and node embedding. Xu, H., Luo, D., Zha, H., and Carin, L. Gromov-Wasserstein グラフマッチングとノード埋め込みのための学習。 0.92
In International Conference on Machine Learning, pp. 英語) international conference on machine learning, pp. 0.80
6932– 6941, 2019. 6932– 6941, 2019. 0.99
Xu, H., Luo, D., Carin, L., and Zha, H. Learning graphons via structured gromov-wasserstein barycenters. Xu, H., Luo, D., Carin, L., Zha, H. Learning graphons via structured gromov-wasserstein barycenters。 0.86
arXiv preprint arXiv:2012.05644, 2020. arXiv preprint arXiv:2012.05644, 2020 0.81
Xu, J. Rates of convergence of spectral methods for graphon In International Conference on Machine Xu、J。 機械に関する国際会議におけるグラフェンのスペクトル法の収束速度 0.75
estimation. Learning, pp. 見積。 学習、pp。 0.60
5433–5442, 2018. 5433–5442, 2018. 0.84
Yurochkin, M., Claici, S., Chien, E., Mirzazadeh, F., and Solomon, J. Hierarchical optimal transport for document representation. Yurochkin, M., Claici, S., Chien, E., Mirzazadeh, F., and Solomon, J. 文書表現のための階層的最適輸送。 0.90
arXiv preprint arXiv:1906.10827, 2019. arXiv preprint arXiv:1906.10827, 2019 0.81
Zhang, Q., Lipani, A., Kirnap, O., and Yilmaz, E. Selfattentive hawkes process. Zhang, Q., Lipani, A., Kirnap, O., and Yilmaz, E. Selfattentive hawkes process。 0.86
In International Conference on Machine Learning, pp. 英語) international conference on machine learning, pp. 0.80
11183–11193. 11183–11193. 0.71
PMLR, 2020. PMLR、2020年。 0.88
Zhao, Q., Erdogdu, M. A., He, H. Y., Rajaraman, A., and Leskovec, J. Seismic: A self-exciting point process model for predicting tweet popularity. Zhao, Q., Erdogdu, M.A., He, H.Y., Rajaraman, A., and Leskovec, J. Seismic: ツイートの人気を予測するための自己興奮ポイントプロセスモデル。 0.91
In Proceedings of the 21th ACM SIGKDD international conference on knowledge discovery and data mining, pp. 第21回ACM SIGKDD国際会議Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and data mining, pp。 0.71
1513–1522, 2015. 1513–1522, 2015. 0.84
Zhou, K., Zha, H., and Song, L. Learning triggering kernels for multi-dimensional hawkes processes. Zhou, K., Zha, H. and Song, L. Learning triggering kernels for multi-dimensional hawkes process。 0.88
In International Conference on Machine Learning, pp. 英語) international conference on machine learning, pp. 0.80
1301–1309, 2013. 1301–1309, 2013. 0.84
Zhu, L. Nonlinear Hawkes Processes. Zhu, L. 非線形ホークスプロセス 0.71
PhD thesis, New phd論文、新しい論文、 0.59
York University, 2013. 2013年、ヨーク大学卒業。 0.60
Zuo, S., Jiang, H., Li, Z., Zhao, T., and Zha, H. Transformer hawkes process. Zuo, S., Jiang, H., Li, Z., Zhao, T., そしてZha, H. Transformer hawkesプロセス。 0.83
arXiv preprint arXiv:2002.09291, 2020. arXiv preprint arXiv:2002.09291, 2020 0.80
英語(論文から抽出)日本語訳スコア
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
A. The Properties of Our GHP model A.1. A。 私達のGHPモデルA.1の特性。 0.73
The proof of Property 2.1 Property 2.1 HP プロパティの証明 2.1 プロパティ 2.1 hp 0.77
V (µ, A) ∼ GHPΩ(f, g) is asymptotically stationary as long as |V| ≤ Vmax. v (μ, a) , ghpω(f, g) は |v| ≤ vmax である限り漸近定常である。 0.79
Proof. For a classical shift-invariant Hawkes process, its intensity function is 証明。 古典シフト不変ホークス過程において、その強度関数は 0.68
λv(t) = µv + (cid:88)ti<t λv(t) = μv + (cid:88)ti<t 0.92
φvv(cid:48)(t − ti) = µv + (cid:88)ti<t φvv(cid:48)(t − ti) = μv + (cid:88)ti<t 0.89
avv(cid:48)η(t − ti) for v ∈ V. v ∈ V に対する avv(cid:48)η(t − ti)。 0.95
(12) We can construct a matrix Φ = [φvv(cid:48)] ∈ RV ×V , whose element is φvv(cid:48) =(cid:82) ∞ (12) その元が φvv(cid:48) = (cid:82) ∞ である行列 φvv(cid:48)] ∈ RV ×V を構成することができる。 0.80
in (Bacry et al., 2015), the Hawkes process is asymptotically stationary if the impact functions satisfy: in (Bacry et al., 2015) では、衝撃関数が満たせば、ホークス過程は無症状に静止している。 0.59
0 φvv(cid:48)(t)dt. 0 φvv(cid:48)(t)dt。 0.88
According to the Proposition 1 1) ∀ v, v(cid:48) ∈ V, φvv(cid:48)(t)(cid:40 )≥ 0, 命題1によれば 1) v, v(cid:48) ∈ v, φvv(cid:48)(t)(cid:40 )≥ 0, 0.73
= 0, t ≥ 0, t < 0. = 0, t ≥ 0, t < 0 である。 0.89
2) (cid:107)Φ(cid:107)2 < 1. 2) (cid:107)*(cid:107)2 < 1。 0.87
When setting φvv(cid:48)(t) = avv(cid:48)κ(t), as shown in (12), we have (12) に示すように φvv(cid:48)(t) = avv(cid:48)κ(t) を設定するとき、 0.86
In the generative process of our GHP model, we have GHPモデルの生成過程において、我々は 0.76
Φ = DA, where D =(cid:90) ∞ D = (cid:90) ∞ である。 0.70
0 η(t)dt. 0 η(t)dt である。 0.82
Accordingly, we have avv(cid:48) = それゆえ私たちは avv(cid:48) = 0.85
1 VmaxD g(xv, xv(cid:48)), where Vmax ≥ V and g : Ω (cid:55)→ [0, 1). 1 VmaxD g(xv, xv(cid:48)), ここで Vmax ≥ V と g : Ω (cid:55)→ [0, 1) が成り立つ。 0.88
(13) (14) (15) (13) (14) (15) 0.85
(16) (cid:107)A(cid:107)2 ≤ (cid:107)A(cid:107)F =(cid:16)(cid:88)v,v( cid:48) a2 vv(cid:48)(cid:17) 1 (16) (cid:107)A(cid:107)2 ≤ (cid:107)A(cid:107)F =(cid:16)(cid:88)v,v( cid:48) a2 vv(cid:48)(cid:17) 1 0.82
2 = 1 VmaxD(cid:16)(cid:88 )v,v(cid:48) g2(xv, xv(cid:48))(cid:17) 1 2 = 1 VmaxD(cid:16)(cid:88 )v,v(cid:48) g2(xv, xv(cid:48))(cid:17) 1 0.85
2 < V VmaxD 2 < V VmaxD 0.85
≤ 1 D . Here, the first inequality is based on the relationship between a matrix’s spectral norm and its Frobenius norm. ≤1D . ここで、第一の不等式は行列のスペクトルノルムとフロベニウスノルムの関係に基づいている。 0.74
The second (strict) inequality is based on Assumption 2.2 (i.e., 0 ≤ g(x, y) < 1 ∀ (x, y) ∈ Ω2). 2番目の(制限的な)不等式は仮定2.2(すなわち 0 ≤ g(x, y) < 1 > (x, y) ∈ Ω2) に基づいている。 0.81
Plugging (16) into (14), we have (cid:107)Φ(cid:107)2 < 1, thus the stability condition in (13) is satisfied. (16) を (14) に差し込むと、 (cid:107) = (cid:107)2 < 1 となり、 (13) の安定性条件が満たされる。 0.80
A.2. The proof of Property 2.3 A.2。 財産2.3の証明 0.69
Before proving Property 2.3, we first introduce the definition of the discrete Wasserstein distance (the earth mover’s distance) and that of the discrete Gromov-Wasserstein distance. 性質 2.3 を証明する前に、まず離散的なワッサーシュタイン距離(地球移動子の距離)と離散的なグロモフ-ワッサーシュタイン距離の定義を導入する。 0.74
Definition A.1 (Earth Mover’s Distance). 定義 A.1 (Earth Mover’s Distance)。 0.90
Given a = {am ∈ RD}M distance between them is a = {am ∈ RD}M の距離を与えられる。 0.79
n=1, the discrete Wasserstein n=1,離散wasserstein 0.94
dw(a, b) := minT ∈Π( 1 dw(a, b) := minT ∈ n( 1) 0.87
M 1M , 1 Here, T = [tmn] is a doubly stochastic matrix in the set M1M, 1 ここで、T = [tmn] は集合の二重確率行列である 0.80
m=1 and b = {bn ∈ RD}N 2(cid:17) 1 N 1N )(cid:16)(cid:88)m,n tmn(cid:107)am − bn(cid:107)2 1N(cid:19) =(cid:26)T = [tmn](cid:12)(cid:12)(cid :12)(cid:12) tmn ≥ 0, T 1N = m=1 と b = {bn ∈ RD}N 2(cid:17) 1 N 1N )(cid:16)(cid:88) m,n tmn(cid:107)am − bn(cid:107)2 1N(cid:19) =(cid:26)T = [tmn](cid:12)(cid:12)(cid :12)(cid:12) tmn は 0, T 1N = である。 0.82
= minT ∈Π( 1 = minT ∈ ( 1 ) 0.87
1M , T (cid:62)1M = 1M , T (cid:62)1M = 0.81
M 1M , 1 1 M 2 M1M, 1 1M 2 0.85
1 N 1N(cid:27) , 1N 1n(cid:27) , 0.75
Π(cid:18) 1 π(cid:18) 1 0.72
M 1M , 1 N where 1N is the N-dimensional all-one vector. M 1M。 1N 1N は N-次元全 1 ベクトルである。 0.77
D = [dmn] is a distance matrix, whose element dmn = (cid:107)am − bn(cid:107)2 optimal T corresponding to the distance, i.e., T ∗ = arg minT ∈Π( 1 matrix. D = [dmn] は距離行列であり、その元 dmn = (cid:107)am − bn(cid:107)2 は距離に対応する最適 T である。
訳抜け防止モード: D = [ dmn ] は距離行列であり、その要素 dmn = ( cid:107)am − bn(cid:107)2 が距離に対応する最適 T である。 すなわち、T ∗ = arg minT ∈ ( 1 行列) である。
0.78
Definition A.2 (Discrete Gromov-Wasserstein Distance). 定義 A.2 (Discrete Gromov-Wasserstein Distance)。 0.75
Given a = {am ∈ RD}M can be different from D(cid:48), the discrete Gromov-Wasserstein distance between them is a = {am ∈ RD}M が D(cid:48) と異なるとすると、それらの間の離散グロモフ・ワッセルシュタイン距離は異なる。 0.74
2. The 2 , is the so-called optimal transport 2. 2は、いわゆる最適な輸送です。 0.82
(cid:48)}N n=1, where D (cid:48)}N n=1。 0.83
N 1N )(cid:104)D, T(cid:105) 1 N 1N (<cid:104)D, T(cid:105) 1 0.85
M 1M , 1 m=1 and b = {bn ∈ RD N 1N )(cid:16)(cid:88)m,m (cid:48),n,n(cid:48) tmntm(cid:48)n(cid:4 8)|(cid:107)am − am(cid:48)(cid:107)2 − (cid:107)bn − bn(cid:48)(cid:107)2 |2(cid:17) 1 M1M, 1 m=1 および b = {bn ∈ RD N 1N )(cid:16)(cid:88)m,m (cid:48),n(cid:48) tmntm(cid:48)n(cid:4 8)|(cid:107)am − am(cid:48)(cid:107)2 − (cid:107)bn − bn(cid:48)(cid:107)2 |2(cid:17)1 0.88
2 . dgw(a, b) := minT ∈Π( 1 2 . dgw(a, b) := minT ∈ n( 1) 0.85
M 1M , 1 (18) M1M, 1 (18) 0.88
N 1N )(cid:104)D, T(cid:105) 1 N 1N (<cid:104)D, T(cid:105) 1 0.85
2 . (17) 2 . (17) 0.85
英語(論文から抽出)日本語訳スコア
Similar to the discrete Wasserstein distance, T = [tmn] is a doubly stochastic matrix in the set Π(cid:0) 1 optimal T corresponding to the distance is the optimal transport matrix. 離散的なWasserstein距離と同様に、T = [tmn] は、距離に対応する最適 T が最適輸送行列である集合 s(cid:0) 1 の二重確率行列である。 0.79
When two distance matrices A = {amm(cid:48)}M and B = {bnn(cid:48)}N discrete Gromov-Wasserstein distance equivalently as 2つの距離行列 A = {amm(cid:48)}M と B = {bnn(cid:48)}N 離散グロモフ・ワッセルシュタイン距離が同値の場合 0.74
N 1N(cid:1) and the m,m(cid:48)=1 n,n(cid:48)=1 are provided directly, where amm(cid:48) = (cid:107)am − am(cid:48)(cid:107)2 and bnn(cid:48) = (cid:107)bn − bn(cid:48)(cid:107)2 , we can rewrite the n 1n(cid:1) と m,m(cid:48)=1 n,n(cid:48)=1 は直接提供され、am(cid:48) = (cid:107)am − am(cid:48)(cid:107)2 と bnn(cid:48) = (cid:107)bn − bn(cid:48)(cid:107)2 で書き換えることができる。 0.81
M 1M , 1 Hawkes Processes on Graphons M1M, 1 グラフ上のホークス過程 0.78
dgw(A, B) := minT ∈Π( 1 dgw(A, B) := minT ∈ n( 1) 0.86
M 1M , 1 N 1N )(cid:16)(cid:88)m,m (cid:48),n,n(cid:48) tmntm(cid:48)n(cid:4 8)|amm(cid:48) − bnn(cid:48)|2(cid:17) 1 M1M, 1 N 1N )(cid:16)(cid:88)m,m (cid:48),n(cid:48) tmntm(cid:48)n(cid:4 8)|amm(cid:48) − bnn(cid:48)|2(cid:17) 1 0.88
2 . (19) Property 2.3 For HP parameters satisfy 2 . (19) プロパティ 2.3 HP パラメータが満足する 0.82
V (µ1, A1) and HP V(μ1, A1)とHP 0.93
U (µ2, A2) ∼ GHPΩ(f, g), where GHPΩ(f, g) satisfies Assumption 2.2, their U (μ2, A2) \ GHP(f, g), ここで GHP(f, g) は仮定 2.2 を満たす。 0.89
1 dw(x1, x2) ≤ dw(µ1, µ2) ≤ C f C f dw(A1, A2) ≤ C gdw(x×1 , x×2 ), dgw(A1, A2) ≤ C gdgw(x×1 , x×2 ), 1 dw(x1, x2) ≤ dw(μ1, μ2) ≤ C f C f dw(A1, A2) ≤ C gdw(x×1 , x×2 ), dgw(A1, A2) ≤ C gdgw(x×1 , x×2 ) 0.98
2 dw(x1, x2), 2 dw(x1, x2)。 0.88
where x1 = {xv,1}|V|v=1 and x2 = {xu,2}|U|u=1 are the latent event types, and x×1 = {[xv,1; xv(cid:48),1]}|V|v,v(cid:48)=1 and x×2 = {[xu,2; xu(cid:48),2]}|U|u,u(cid:48)=1 enumerate the pairs of the latent event types. x1 = {xv,1}|v|v=1 と x2 = {xu,2}|u|u=1 が潜在イベント型であり、x×1 = {[xv,1; xv(cid:48),1]}|v|v,v(cid:48)=1 と x×2 = {[xu,2; xu(cid:48),2]}|u|u,u(cid:48)=1 が潜在イベントタイプのペアを列挙する。 0.74
Proof. Denote |V| = V and |U| = U. Denote T x as the optimal transport matrix corresponding to dw(x1, x2), i.e., vu] and T x = arg minT ∈Π( 1 V 1V , 1 vu = |xv,1− xu,2|2. 証明。 V| = V と |U| = U を dw(x1, x2) と T x = arg minT ∈(1 V 1V , 1 vu = |xv,1− xu,2|2 に対応する最適輸送行列として記述する。 0.76
Similarly, denote T µ as the optimal transport matrix corresponding to dw(µ1, µ2), i.e., dw(µ1, µ2) = dx (cid:104)Dµ, T µ(cid:105), where Dµ = [dµ 同様に、Dμ = [dμ] である dw(μ1, μ2) = dx(cid:104)Dμ, T μ(cid:105) に対応する最適な輸送行列として T μ を表わす。 0.90
U 1U )((cid:80)v,u tvu|xv,1 − xu,2|2) U 1U (<(cid:80)v,u tvu|xv,1 − xu,2|2) 0.66
U 1U )(cid:104)Dx, T(cid:105) 1 U 1U )(cid:104)Dx, T(cid:105) 1 0.87
2 , where Dx = [dx 2, Dx = [dx] 0.72
V 1V , 1 1 ∀ T ∈ Π(cid:18) 1 V 1V, 1 1 T ∈ (cid:18) 1 である。 0.83
V Based on (20), we have V 20)に基づきます。 0.65
1 U 1V , vu] and dµ 1 U 1V。 vu] と dμ 0.84
(cid:104)Dx, T(cid:105) 1 (cid:104)Dx, T(cid:105) 1 0.86
2 ≥ (cid:104)Dx, T x(cid:105) 1 2 , 2 ≥ (cid:104)Dx, T x(cid:105) 1 2 , 0.94
2 = arg minT Π( 1 vu = |µv,1 − µu,2|2. 2 = arg minT ( 1 vu = |μv,1 − μu,2|2。 0.70
Obviously, we have 1U(cid:19) , dw(µ1, µ2) =(cid:16)(cid:88)m,n 2(cid:16)(cid:88)v,u dw(µ1, µ2) =(cid:16)(cid:88)v,u 1(cid:16)(cid:88)v,u 1U(cid:19) , dw(μ1, μ2) = (cid:16)(cid:88)m,n 2(cid:16)(cid:88)v,u dw(μ1, μ2) = (cid:16)(cid:88)v,u 1(cid:16)(cid:88)v,u 0.87
vu|µv,1 − µu,2|2(cid:17) 1 vu|xv,1 − xu,2|2(cid:17) 1 vu|µv,1 − µu,2|2(cid:17) 1 vu|xv,1 − xu,2|2(cid:17) 1 vu|μv,1 − μu,2(cid:17) 1 vu|xv,1 − xu,2(cid:17) 1 vu|μv,1 − μu,2(cid:17) 1 vu|xv,1 − xu,2(cid:17) 1 0.50
2 ≤(cid:16)(cid:88)v,u 1(cid:16)(cid:88)v,u 2 ≤(cid:16)(cid:88)v,u 1(cid:16)(cid:88)v,u 0.89
2 ≥ C f ≤ C f 2 ≥ C f ≤ C f 0.85
≥ C f ≥ c f である。 0.61
= C f = C f tµ = Cf = Cf tμ 0.64
tµ tx tx tx tμ tx tx tx 0.83
2 2 and (cid:104)Dµ, T(cid:105) 1 2 2 と (cid:104)Dμ, T(cid:105) 1 0.84
2 ≥ (cid:104)Dµ, T µ(cid:105) 1 2 . 2 ≥ (cid:104)Dμ, Tμ (cid:105) 1 2。 0.80
2 dw(x1, x2). 2 dw(x1, x2)。 0.87
2 vu|µv,1 − µu,2|2(cid:17) 1 vu|xv,1 − xu,2|2(cid:17) 1 2 vu|μv,1 − μu,2|2(cid:17) 1 vu|xv,1 − xu,2|2(cid:17) 1 0.66
tµ 2 1 dw(x1, x2). tμ 2 1 dw(x1, x2)。 0.84
(20) (21) For A1 = [a1 (20) (21) A1 = [a1 0.88
vv(cid:48)] and A2 = [a2 vv(cid:48)]とa2 = [a2 0.88
uu(cid:48)], their discrete Wasserstein distance is uu(cid:48)]、それらの離散wasserstein距離は 0.84
dw(A1, A2) = minT ∈Π( 1 where DA = [dvv(cid:48),uu(cid:4 8)] ∈ RV 2×U 2, dvv(cid:48),uu(cid:4 8) = |a1 Gromov-Wasserstein distance is dw(a1, a2) = mint ∈π(1) da = [dvv(cid:48), uu(cid:48)] ∈ rv 2×u 2, dvv(cid:48), uu(cid:48) = |a1 gromov-wasserstein 距離
訳抜け防止モード: dw(A1, A2 ) = minT ∈ ( 1 where DA = [ dvv(cid:48),uu(cid:4 8 ) ] ∈ RV 2×U 2 dvv(cid:48),uu(cid:4 8 ) = |a1 Gromov - Wasserstein 距離
0.91
V 2 1V 2 , 1 vv(cid:48) − a2 V 2 1V 2 , 1 vv(cid:48) − a2 0.90
U 2 1U 2 )(cid:104)DA, T(cid:105) 1 (22) uu(cid:48)|2, and T A is the optimal transport matrix. U 2 1U 2 )(cid:104)DA, T(cid:105) 1 (22) uu(cid:48)|2, T A は最適な輸送行列である。 0.82
Their discrete 2 = (cid:104)DA, T A(cid:105) 1 彼らの離散 2 = (cid:104)DA, T A(cid:105) 1 0.69
2 dgw(A1, A2) = minT ∈Π( 1 2 dgw(A1, A2) = minT ∈(1) 0.86
V 1V , 1 U 1U )(cid:104)DA, T ⊗ T(cid:105) 1 V 1V, 1 U 1U )(cid:104)DA, T > T(cid:105) 1 0.92
2 = (cid:104)DA, T A 2 = (cid:104)DA, T A 0.98
gw ⊗ T A gw (複数形 gws) 0.38
gw(cid:105) 1 2 , gw(cid:105) 1 2 , 0.94
gw is the optimal transport matrix and ⊗ represents the Kronecker multiplication between two matrices. gw は最適輸送行列であり、2つの行列の間のクロネッカー乗法を表す。 0.60
where T A Similarly, we represent ここで T A も同様です。 0.59
(23) dw(x×1 , x×2 ) = (23) dw(x×1 , x×2 ) = 0.90
min (cid:104)DX , T(cid:105) 1 2 , 分 (cid:104)DX , T(cid:105) 1 2 , 0.73
dgw(x×1 , x×2 ) = dgw(x×1 , x×2 ) = 0.94
T ∈Π( 1 respectively, where DX = [Dvv(cid:48),uu(cid:4 8)] and Dvv(cid:48),uu(cid:4 8) = (cid:107)[xv,1; xv(cid:48),1] − [xu,2; xu(cid:48),2](cid:107)2 optimal transport matrix of dw(x×1 , x×2 ) and T X DX = [Dvv(cid:48),uu(cid:4 8)]とDvv(cid:48),u(cid:48 ) = (cid:107)[xv,1; xv(cid:48),1] − [xu,2; xu(cid:48),2](cid:107)2(cid:107)2 の最適輸送行列 dw(x×1 , x×2 ) 0.90
gw as the optimal transport matrix of dgw(x×1 , x×2 ). gw を dgw(x×1 , x×2 ) の最適輸送行列とする。 0.82
V 2 1V 2 , 1 V 2 1V 2 , 1 0.97
T ∈Π( 1 U 2 1U 2 ) T ∈(1) U 2 1U 2。 0.86
U 1U ) min V 1V , 1 U 1U)。 min V 1V , 1 0.86
(cid:104)DX , T ⊗ T(cid:105) 1 2 , (cid:104)DX , T > T(cid:105) 1 2 , 0.87
2. Accordingly, we denote T X as the 2. したがって、T X を the とする。 0.78
英語(論文から抽出)日本語訳スコア
Similar to the derivation shown in (21), we have 21)に示される導出と同様に、我々は 0.65
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
(cid:104)DA, T A(cid:105) 1 (cid:104)DA,TA(cid:1 05)1 0.87
2 ≤ (cid:104)DA, T X(cid:105) 1 2 ≤ (cid:104)DA, T X (cid:105) 1 0.87
2 ≤ C g (cid:104)DX , T X(cid:105) 1 2 ≤ C g (cid:104)DX , T X (cid:105) 1 0.94
2 , dw(A1,A2) 2 , dw(A1,A2) 0.87
(cid:104)DA, T A (cid:104)DA,TA 0.87
(cid:125) (cid:123)(cid:122) gw ⊗ T A (cid:123)(cid:122) (cid:125) (cid:123)(cid:122) gw (cid:123)(cid:122) 0.85
dgw(A1,A2) dgw(A1,A2) 0.92
gw(cid:105) 1 (cid:125) gw(cid:105) 1 (cid:125) 0.81
2 (cid:124) (cid:124) 2 (cid:124)(cid:124) 0.75
≤ (cid:104)DA, T X ≤ (cid:104)DA, T X 0.96
(cid:124) (cid:123)(cid:122) gw ⊗ T X gw(cid:105) 1 (cid:124) (cid:123)(cid:122) gw(cid:105) 1 0.93
dw(x × 1 ,x dw(x) ×1,x 0.82
× 2 ) (cid:125) × 2 ) (cid:125) 0.82
2 ≤ C g (cid:104)DX , T X 2 ≤ C g (cid:104)DX , T X 0.99
. (24) 2 gw(cid:105) 1 gw ⊗ T X (cid:125) (cid:123)(cid:122) . (24) 2 gw(cid:105) 1 gw (cid:125) (cid:123) (cid:122) 0.86
× 1 ,x × 2 ) ×1,x × 2 ) 0.78
dgw(x (cid:124) dgw(x) (cid:124) 0.85
A.3. The proof of Property 2.4 Definition A.3 (Average Intensity (Bacry et al., 2015)). A.3。 the proof of property 2.4 definition a.3 (平均強度 (bacry et al., 2015)。 0.75
For the stationary Hawkes process defined in (12), its counting process is denoted as N (t) = {Nv(t)}v∈V,t∈[0,T ], where Nv(t) is the number of the type-v events till time t, and its average intensity is 12で定義された定常ホークス過程において、そのカウント過程は N (t) = {Nv(t)}v∈V,t∈[0,T ] と表され、Nv(t) は時間 t までの型-v イベントの数であり、平均強度は t である。 0.85
¯λ := E[dN (t)] ¯λ := E[dN (t)] 0.84
dt = (IV − Φ)−1µ = (IV − DA)−1µ. dt = (IV − s)−1μ = (IV − DA)−1μ。 0.88
(25) (26) According to Campbell’s theorem (Chiu et al., 2013), given ¯λ = [ ¯λv], we have λv(t)dt, ∀ v ∈ V. (25) (26) キャンベルの定理(Chiu et al., 2013)によれば、 λ = [ sλv] を与えられたとき、 λv(t)dt, sv ∈ V を持つ。 0.84
E[dNv(t)] = T ¯λv =(cid:90) T E[dNv(t)] = T ・λv =(cid:90) T 0.98
0 In other words, the average intensity reflects the overall dynamics of different event types. 0 言い換えれば、平均強度は異なるイベントタイプの全体的なダイナミクスを反映します。 0.81
The proof of Property 2.4 is based on the theory of optimal transport and some well-known theorems. 性質の証明 2.4 は最適輸送の理論といくつかのよく知られた定理に基づいている。 0.70
Property A.4 (Triangle inequality (Villani, 2008)). プロパティA.4(Triangle inequality)(Villani, 2008)。 0.81
For arbitrary a = {al ∈ RD}L c = {cn ∈ RD}N 任意の a = {al ∈ RD}L c = {cn ∈ RD}N に対して 0.94
n=1, we have l=1, b = {bm ∈ RD}M n=1です。 l=1, b = {bm ∈ RD}M 0.92
m=1, and (27) Theorem A.5 (One-dimensional Earth Mover’s Distance (Rabin et al., 2011)). m=1。 (27) Theorem A.5 (One-dimensional Earth Mover's Distance (Rabin et al., 2011)。 0.87
For two sets of 1D points, i.e., a = {an ∈ R}N 1D点の2つの集合、すなわち a = {an ∈ R}N に対して 0.85
n=1, their earth mover’s distance has a closed form solution with complexity O(N log N ). n=1 であれば、それらのアースムーバーの距離は複雑性 O(N log N ) の閉形式解を持つ。 0.75
n=1 and b = {bn ∈ R}N n=1 と b = {bn ∈ R}N 0.99
dw(a, c) ≤ dw(a, b) + dw(b, c). dw(a, c) ≤ dw(a, b) + dw(b, c) である。 0.86
(cid:107)sort(a) − sort(b)(cid:107)2 = (cid:107)sort(a) − sort(b)(cid:107)2 = 0.96
(cid:107)a − P b(cid:107)2, (cid:107)a − P b(cid:107)2 0.91
dw(a, b) = dw(a, b) = 0.85
(28) where sort(·) sorts the elements of a vector in a descending order, and P ∈ {P ∈ {0, 1}N×N | P 1N = 1N , P (cid:62)1N = 1N} is a permutation matrix, mapping the n-th largest element of b to the n-th largest element of a for n = 1, ..., N. Obviously, N P is the optimal transport matrix. (28) ここで sort(·) はベクトルの元を降順にソートし、p ∈ {p ∈ {0, 1}n×n | p 1n = 1n , p (cid:62)1n = 1n} は置換行列であり、b の n 番目の最大元を n = 1, ..., n の a の n 番目の最大元にマッピングする。
訳抜け防止モード: (28) ソート ( ・ ) は、ベクトルの要素を降順にソートします。 P ∈ { P ∈ { 0, 1}N×N | P 1N = 1N, P ( cid:62)1N = 1N } は置換行列である。 b の n 番目の最大元と n の n 番目の最大元を n = 1 の a 番目の最大元にマッピングする。 明らかに、N Pは最適な輸送マトリックスです。
0.85
1 Additionally, according to the definition of the earth mover’s distance, we have the following theorem: Theorem A.6. 1 さらに、地球移動者の距離の定義によると、次の定理がある: Theorem A.6。 0.78
For a set of 1D points, i.e., a = {am ∈ R}M we have 1D 点の集合、すなわち a = {am ∈ R}M に対して、我々は有する。 0.89
m=1, if we pad N − M zeros to a and obtain a(cid:48) = [a; 0N−M ], m=1 の場合、N − M が a に 0 で、a(cid:48) = [a; 0N−M ] を得る。 0.79
1√ N 1√ N dw(a, a(cid:48)) ≤(cid:114) N − M 1~N 1~N dw(a, a(cid:48)) ≤(cid:114) N − M 0.75
M N (cid:107)a(cid:107)2 M N (cid:107)a(cid:107)2 0.83
(29) Proof. For a and a(cid:48), we obtain a distance matrix D = [Da, D0] ∈ RM×N . (29) 証明。 a と a(cid:48) に対して、距離行列 D = [Da, D0] ∈ RM×N を得る。 0.77
Here, Da = [dmm(cid:48)] ∈ RM×M and dmm(cid:48) = |am − am(cid:48)|2. ここで、Da = [dmm(cid:48)] ∈ RM×M と dmm(cid:48) = |am − am(cid:48)|2 である。 0.80
Obviously, the diagonal element dmm = 0 for m = 1, .., M. D0 = [dmn] ∈ RM×(N−M ) and dmn = |am|2 for all n = 1, ..., N − M. Accordingly, we can design a valid transport matrix ˆT = [ 1 M N 1M×(N−M )], such that ˆT ∈ Π(cid:0) 1 明らかに、対角元 dmm = 0 for m = 1, ., M. D0 = [dmn] ∈ RM×(N−M ) と dmn = |am|2 for all n = 1, ..., N − M である。
訳抜け防止モード: 明らかに、m = 1 の対角元 dmm = 0 である。 .., M. D0 = [ dmn ] ∈ RM×(N−M ) すべての n = 1, ..., に対して dmn = |am|2 である。 N − M よって、有効な輸送行列(T = [ 1 M N 1M×(N − M ) ] を設計できる。 T ∈ (cid:0 ) 1 である。
0.85
N 1N(cid:1). N1N (cid:1。 0.76
Therefore, we have M 1M , 1 それゆえ私たちは M1M, 1 0.87
N IM , 1 2 1 N IM。 1 2 1 0.75
dw(a, a(cid:48)) = dw(a, a(cid:48)) = 1.00
min M 1M , 1 min M 1M , 1 0.99
N 1N ) T ∈Π( 1 N 1N)。 T ∈(1) 0.77
(cid:104)D, T(cid:105) 1 (cid:104)D,T(cid:105 )1 0.80
2 ≤ (cid:104)D, ˆT(cid:105) 1 2 ≤ (cid:104)d , t(cid:105) 1 0.89
2 =(cid:88)m (cid:124) (cid:123)(cid:122) 2 = (cid:88)m (cid:124) (cid:123)(cid:122) 0.78
=0 (cid:125) =0 (cid:125) 0.78
dmm + 1 M N (cid:88)M dmm + 1 M N (cid:88)M 0.87
m=1 (cid:88)N−M m=1 (cid:88)N−M 0.59
n=1 |am|2 n=1 |am|2' 0.47
=(cid:114) N − M =(cid:114)N − M 0.93
M N (cid:107)a(cid:107)2 . M N (cid:107)a(cid:107)2 。 0.83
英語(論文から抽出)日本語訳スコア
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
Theorem A.7 (The perturbation theory of linear system (Van Loan & Golub, 1983)). 理論 A.7 (The Perturbation theory of linear system (Van Loan & Golub, 1983)。 0.80
Suppose that we have a linear system Ax = b, where A ∈ RN×N , x ∈ RN , and b ∈ RN . 線形系 Ax = b を持ち、そこで A ∈ RN×N , x ∈ RN , b ∈ RN とする。 0.73
Given A(cid:48) = A + E and b(cid:48) = b + , where E and  are noise in the system, we denote x(cid:48) = A(cid:48)−1b(cid:48) = x + x, where the relative error of x, i.e., (cid:107)x(cid:107)2 (cid:107)x(cid:107)2 A(cid:48) = A + E と b(cid:48) = b + s がシステム内のノイズであるとき、x(cid:48) = A(cid:48) −1b(cid:48) = x + sx と定義し、x の相対誤差、すなわち (cid:107)*x(cid:107) x(cid:107)2 (cid:107)x(cid:107)2 )2 と表す。 0.77
, is bounded as is bounded as... 0.59
(cid:107)x(cid:107)2 (cid:107)x(cid:107)2 (cid:107)x(cid:107)2 (cid:107)x(cid:107)2 0.79
≤ τA(cid:18)(cid:107)E( cid:107)2 ≤ A(cid:18)(cid:107)E( cid:107)2 0.78
(cid:107)A(cid:107)2 (cid:107)A(cid:107)2 0.81
+ (cid:107)(cid:107)2 (cid:107)µ(cid:107)2(cid:19) , + (cid:107)*(cid:107)2 (cid:107)μ(cid:107)2(cid:19) 0.80
(30) where τA is the condition number of A. (30) ここで τA は A の条件数である。 0.80
Based on the properties and the theorems above, we can proof Property 2.4 as follows. 上記の性質と定理に基づいて、次のようにプロパティ2.4を証明できる。 0.73
Property 2.4 For HP V = |V| ≤ |U| = U, their average intensity vectors, i.e., ¯λ1 and ¯λ2, satisfy hp v = |v| ≤ |u| = u に対する特性 2.4 は、それらの平均強度ベクトル、すなわち λ1 と λ2 を満たす。
訳抜け防止モード: HP V = |V| ≤ |U| = U, それらの平均強度ベクトル、すなわち λ1 と λ2 は満足する。
0.81
U (µ2, A2) ∼ GHPΩ(f, g), where GHPΩ(f, g) satisfies Assumption 2.2 and V (µ1, A1) and HP √ U (μ2, A2) は GHPΩ(f, g) であり、GHPΩ(f, g) は仮定 2.2 と V (μ1, A1) を満たす。 0.87
dw(¯λ1, ¯λ2) dw(λ1, λ2) である。 0.61
(cid:107)¯λ1(cid:107)2 (cid:107) λ1(cid:107)2 0.75
≤ 1 − D(cid:107)A1(cid:107 )2(cid:32) ≤ 1 − D(cid:107)A1(cid:107 )2(cid:32) 0.83
1 2U C g 1 (cid:107)IV − DA1(cid:107)2 C f 1 2U C g 1 (cid:107)IV − DA1(cid:107)2 C f 0.89
+ 1 (cid:107)µ1(cid:107)2(cid:33)( cid:32)dw(µ1, µ2) +(cid:114) U − V + 1 (cid:107)μ1(cid:107)2(cid:33)( cid:32)dw(μ1, μ2) +(cid:114) U − V 0.83
V (cid:107)µ1(cid:107)2(cid:33) +(cid:114) U − V V (cid:107)μ1(cid:107)2(cid:33) +(cid:114) U − V 0.82
V U . Proof. According to (4), our GHP(f, g) model generates a Hawkes process HPV (µ, A) from the samples in Ω. Denote x1 = {xv,1}V V U . 証明。 (4) によると、我々の GHP(f, g) モデルは、x1 = {xv,1}V のサンプルからホークス過程 HPV (μ, A) を生成する。 0.80
v=1 as the samples for HPV (µ1, A1) and x2 = {xu,2}U v=1 は HPV (μ1, A1) および x2 = {xu,2}U のサンプルである 0.80
u=1 the samples for HPU (µ2, A2). u=1 HPU (μ2, A2)のサンプル。 0.80
We have ∀ xv,1 ∈ x1, µv,1 ∈ µ1, avv(cid:48),1 ∈ A1, µv,1 = f (xv,1), µu,2 = f (xu,2), auu(cid:48),2 = g(xu,2, xu(cid:48),2) ∀ xu,2 ∈ x2, µu,2 ∈ µ2, auu(cid:48),2 ∈ A2. 我々は xv,1 ∈ x1, μv,1 ∈ μ1, avv(cid:48), 1 ∈ A1, μv,1 = f(xv,1), μu,2 = f(xu,2), auu(cid:48), 2 = g(xu,2, xu(cid:48), 2) ^ xu,2 ∈ x2, μu,2 ∈ μ2, au(cid:48), 2 ∈ A2。 0.77
avv(cid:48),1 = g(xv,1, xv(cid:48),1) avv(cid:48),1 = g(xv,1, xv(cid:48),1) 0.87
(31) Because V ≤ U, for HPV (µ1, A1) we pad µ1 and A1 with zeros, i.e., ˜µ1 = [µ1; 0U−V ] ∈ RU and ˜A1 = 0(cid:62)V ×(U−V ) 0(U−V )×(U−V )(cid:21) ∈ RU×U , such that ˜µ1 ( ˜A1) is as large as µ2 (A2). (31) V ≤ U に対し、HPV (μ1, A1) に対しては μ1 と A1 を 0 でパディングする(すなわち、 μ1 = [μ1; 0U−V ] ∈ RU と φA1 = 0(cid:62)V ×(U−V ) 0(U−V )×(U−V ) (cid:21) ∈ RU×U は μ1 である。 0.87
Accordingly, in Ω we denote (cid:20) A1 the samples corresponding to ˜µ1 and ˜A1 as ˜x1 = {˜xv,1}U v=1, which is constructed by padding x1 with U − V zero points of f (x), i.e., それゆえ ω において、(cid:20) a1 のサンプルは、x1 を f (x) の u − v 個の零点でパディングすることで構成され、x1 = { sxv,1}u v=1 となる。 0.76
0V ×(U−V ) where xf Because the Hawkes process generated by our GHP model is stationary (Property 2.1), according to (25) we have 0V×(U−V) ここで xf は GHP モデルによって生成される Hawkes プロセスが静止しているため (25) によれば (Property 2.1) 0.79
0 is the unique zero point of f (x) (Assumption 2.2). 0 は f (x) (Assumption 2.2) の特異零点である。 0.89
˜x1 = {˜xv,1}U x1 = { sxv,1}U 0.72
v=1 = {x1,1, .., xV,1, xf (cid:124) v=1 = {x1,1, .., xV,1, xf (cid:124) 0.75
0 , ..., xf U−V 0 , ..., xf U−V 0.97
0 (cid:123)(cid:122) 0 (cid:123)(cid:122) 0.80
(cid:125) }, (cid:125) }, 0.68
(IV − DA1)¯λ1 = µ1, (IV − DA1) μ1 = μ1, 0.86
(IU − DA2)¯λ2 = µ2, (IU − DA2) λ2 = μ2, 0.90
and (IU − D ˜A1)˜λ1 = ˜µ1, そして (IU − D ・ A1) ・λ1 = ・μ1 ・ 0.71
(32) (33) where ˜λ1 = [¯λ1; 0U−V ] is the average intensity ¯λ1 with padded zeros. (32) (33) ここで λ1 = [ sλ1; 0U−V ] は、パッド付き零点を持つ平均強度 λ1 である。 0.76
Following the notations used in the proof of Property 2.3, we denote T µ as the optimal transport matrix for dw( ˜µ1, µ2) and T λ the optimal transport matrix for dw(˜λ1, ¯λ2). 性質の証明で使われる表記法 2.3 に従えば、t μ を dw(μ1, μ2) の最適輸送行列とし、t λ を dw(λ1, λ2) の最適輸送行列とする。 0.84
According to Theorem A.5, these two matrices are normalized permutation matrices, i.e., T µ = 1 定理 a.5 によれば、これら二つの行列は正規化置換行列、すなわち t μ = 1 である。 0.66
U P µ and T λ = 1 U P μ と T λ = 1 0.84
U P λ. Then, we have U P λ。 そして私たちは 0.74
dw(¯λ1, ¯λ2) ≤ dw(¯λ1, ˜λ1) + dw(˜λ1, ¯λ2) dw(\λ1,\λ2) ≤ dw(\λ1,\λ1) + dw(\λ1,\λ2) である。 0.71
≤(cid:114) U − V ≤(cid:114) U − V ≤(cid:114) U − V ≤(cid:114) U − V 0.96
V U V U (cid:107)¯λ1(cid:107)2 + V U V U (cid:107)-λ1(cid:107)2+ 0.81
(cid:107)¯λ1(cid:107)2 + (cid:107)-λ1(cid:107)2+ 0.74
1√ U 1√ U (cid:107)˜λ1 − P λ ¯λ2(cid:107)2. U は 1 です。 (cid:107) - λ1 − P λ2(cid:107)2。 0.68
(cid:107)˜λ1 − P µ ¯λ2(cid:107)2. (cid:107) sλ1 − p μ sλ2(cid:107)2。 0.70
(Property A.4) (Theorem A.6 + Theorem A.5) (A.4) (理論a.6+定理a.5) 0.67
(Based on (20)) Because the permutation matrix P µ satisfies P µ(P µ)(cid:62) = IU , we have (20件) 置換行列 P μ は P μ(P μ)(cid:62) = IU を満たすので、我々は有する。 0.57
P µµ2 = P µ(IU − DA2)¯λ2 = P µ(IU − DA2)(P µ)(cid:62)P µ ¯λ2. P μ2 = P μ(IU − DA2) ・λ2 = P μ(IU − DA2)(P μ)(cid:62)P μ ・λ2。 0.86
(34) (35) (34) (35) 0.85
英語(論文から抽出)日本語訳スコア
We can treat (35) as a perturbed version of the linear system (IU − D ˜A1)˜λ1 = ˜µ1 and obtain 線型系の摂動版として (35) を扱える(IU − D >A1) >λ1 = >μ1 を得る。 0.73
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
(cid:107)˜λ1 − P µ ¯λ2(cid:107)2 (cid:107) sλ1 − pμ sλ2(cid:107)2 0.71
≤ (cid:107)˜λ1(cid:107)2τIU−D ˜A1(cid:32)(cid:107)( IU − D ˜A1) − P µ(IU − DA2)(P µ)(cid:62)(cid:107)2 = (cid:107)˜λ1(cid:107)2τIU−D ˜A1(cid:32) D(cid:107) ˜A1 − P µA2(P µ)(cid:62)(cid:107)2 (cid:107) ˜µ1(cid:107)2 √ 1 − D(cid:107)A1(cid:107 )2(cid:32) D(cid:107) ˜A1 − P µA2(P µ)(cid:62)(cid:107)2 U dw( ˜µ1, µ2) ≤ (cid:107)2τIU-D >A1(cid:107)2τIU-D >A1(cid:107)(cid:107) (cid:107)(IU − D >A1) − P μ(IU − DA2)(P μ)(cid:62)(cid:107)2 = (cid:107)2τIU-D >A1(cid:32)D(cid:107) >A1 − P μA2(P μ)(cid:62)(cid:107)2 (cid:107) >μ1(cid:107)2 >1 − D(cid:107)A1(cid:107 )2(cid:107)2D(cid:10 7) 0.84
(cid:107)IV − DA1(cid:107)2 (cid:107)IV − DA1(cid:107)2 0.81
(cid:107)IU − D ˜A1(cid:107)2 (cid:107)IU − D A1(cid:107)2 0.82
(cid:107)IU − D ˜A1(cid:107)2 (cid:107)IU − D A1(cid:107)2 0.82
≤ (cid:107)¯λ1(cid:107)2 ≤ (cid:107) sλ1(cid:107)2 0.73
U dw( ˜µ1, µ2) U dw(μ1, μ2) 0.93
(cid:107)µ1(cid:107)2 (cid:107)μ1(cid:107)2 0.76
(cid:33) √ (cid:33) √ 0.82
+ + + 1 (cid:33) . + + + 1 (cid:33)。 0.83
(cid:107) ˜µ1 − P µµ2(cid:107)2 (cid:107) ^μ1 − P μ2(cid:107)2 0.73
(cid:107) ˜µ1(cid:107)2 (cid:107)-μ1(cid:107)2 0.75
(cid:33) (Theorem A.7) (cid:33)(理論a.7) 0.69
(Theorem A.5) (36) (理論A.5) (36) 0.78
The second inequality in (36) is because 1) (cid:107)˜λ1(cid:107)2 = (cid:107)¯λ1(cid:107)2; 2) (cid:107) ˜µ1(cid:107)2 = (cid:107)µ1(cid:107)2; 3) τIU−D ˜A1 1−Dσmin( ˜A1) 1−Dσmax( ˜A1) where σmin (σmax) represents the minimum (the maximum) eigenvalue of a matrix. 第二の不等式 (36) は 1) (cid:107) のλ1 (cid:107)2 = (cid:107) のλ1 (cid:107)2; 2) (cid:107) のμ1 (cid:107)2 = (cid:107)μ1 (cid:107)2; 3) τIU−D の A1 1 − Dσmin( sA1) 1 − Dσmax( sA1) ここでσmin (σmax) は行列の最小(最大)固有値を表す。 0.70
For the (cid:107) ˜A1 − P µA2(P µ)(cid:62)(cid:107)2 in (36), we have cid:107) >A1 − P μA2(P μ)(cid:62)(cid:107)2 in (36) の場合、 0.87
= ; and 4) (cid:107)IU − D ˜A1(cid:107)2 = 1 − Dσmin( ˜A1) ≥ 1 − Dσmin(A1) = (cid:107)IV − DA1(cid:107)2, Dσmin(A1) = (cid:107)IV − DA1(cid:107)2, (cid:107)2, (cid:107)IV − DA1(cid:107)2 である。 0.85
= σmax(IU−D ˜A1) σmin(IU−D ˜A1) = σmax(IU−D >A1) σmin(IU−D >A1) 0.62
1−D(cid:107) ˜A1(cid:107)2 1−D(cid:107) A1(cid:107)2 0.69
1−D(cid:107)A1(cid:107 )2 1−D(cid:107)A1(cid:107 )2 0.69
≤ = 1 1 |˜avv(cid:48),1 − auu(cid:48),2|2pµ ≤ = 1 1 | savv(cid:48),1 − auu(cid:48),2|2pμ 0.81
vupµ 2 v(cid:48)u(cid:48)(c id:17) 1 vupμ 2 v(cid:48)u(cid:48)(c id:17) 1 0.81
(cid:107)[˜xv,1; ˜xv(cid:48),1] − [xu,2; xu(cid:48),2](cid:107)2 vupµ (|˜xv,1 − xu,2|2 + |˜xv(cid:48),1 − xu(cid:48),2|2)pµ xv(cid:48),1] − [xu,2; xu(cid:48),2](cid:107)2 vupμ (| sxv,1 − xu,2|2 + | sxv(cid:48),1 − xu(cid:48),2|2)pμ 0.83
2pµ u,u(cid:48)=1 2pμ u,u(cid:48)=1 0.72
u,u(cid:48)=1 u,u(cid:48)=1 0.86
2 2 vupµ v(cid:48)u(cid:48)(c id:17) 1 v(cid:48)u(cid:48)(c id:17) 1 N(cid:88)v,u=1 2 2 vupμ v(cid:48)u(cid:48)(c id:17) 1 v(cid:48)u(cid:48)(c id:17) 1 N(cid:88)v,u=1 0.82
u,u(cid:48)=1 u,u(cid:48)=1 0.86
(cid:107) ˜A1 − P µA2(P µ)(cid:62)(cid:107)2 =(cid:16)(cid:88)U v,v(cid:48)=1 (cid:88)U ≤ C g(cid:16)(cid:88)U v,v(cid:48)=1 (cid:88)U = C g(cid:16)(cid:88)U v,v(cid:48)=1 (cid:88)U = C g U(cid:88)v,u=1 U(cid:88)v(cid:48),u (cid:48)=1 2C g(cid:16)U(cid:88)U 1 (cid:16)U(cid:88)U A1 − P μA2(P μ)(cid:62)(cid:107)2 =(cid:16)(cid:88)U v,v(cid:48)=1(cid:88)U ≤ C g(cid:16)(cid:88)U v,v(cid:48)=1(cid:88)U = C g(cid:16)(cid:88)U v,v(cid:48)=1(cid:88)U = C g(cid:88)v,u=1 U(cid:88)v(cid:48)u( cid:48)=1(cid:48)u(cid:48)U( cid:88) 0.88
√ √ pvu v,u=1 √ √ pvu v,u=1 0.83
v,u=1 ≤ = 2C g C f √ 2U C g C f 1 2U C g C f 1 v,u=1 ≤ = 2C g C f = 2U C g C f 1 2U C g C f 1 0.86
√ = = (cid:107) ˜µ1 − P µµ2(cid:107)2 √ = = (cid:107) ^μ1 − P μ2(cid:107)2 0.82
dw( ˜µ1, µ2). dw(μ1, μ2)。 0.76
|˜xv(cid:48),1 − xu(cid:48),2|2pµ xv(cid:48),1 − xu(cid:48),2|2pμ 0.67
v(cid:48)u(cid:48) + C g v(cid:48)u(cid:48) + cg 0.92
|˜xv,1 − xu,2|2pµ xv,1 − xu,2|2pμ 0.36
N(cid:88)v(cid:48),u (cid:48)=1 N(cid:88)v(cid:48),u (cid:48)=1 0.84
pv(cid:48)u(cid:48) pv(cid:48)u(cid:48) 0.81
vu |˜xv,1 − xu,2|2pµ |˜µv,1 − µu,2|2pµ ヴー xv,1 − xu,2|2pμ | sμv,1 − μu,2|2pμ 0.35
2 vu(cid:17) 1 vu(cid:17) 1 2 vu(cid:17) 1 vu(cid:17) 1 0.86
2 Plugging (37) into (36), we have 2 37) を (36) に差し込みます。 0.69
(cid:107)˜λ1 − P µ ¯λ2(cid:107)2 (cid:107) sλ1 − pμ sλ2(cid:107)2 0.71
(cid:107)¯λ1(cid:107)2 (cid:107) λ1(cid:107)2 0.75
≤ dw( ˜µ1, µ2) ≤ dw(μ1, μ2) 0.93
1 − D(cid:107)A1(cid:107 )2(cid:32) 1 − D(cid:107)A1(cid:107 )2(cid:32) 1 − D(cid:107)A1(cid:107 )2(cid:32) 1 − D(cid:107)A1(cid:107 )2(cid:32) 1 − D(cid:107)A1(cid:107 )2(cid:32) 1 − D(cid:107)A1(cid:107 )2(cid:32) 0.79
1 1 ≤ ≤ √ √ 1 1 ≤ ≤ √ √ 0.85
√ 2U C g 1 (cid:107)IV − KA1(cid:107)2 C f √ 2U C g 1 (cid:107)IV − KA1(cid:107)2 C f 0.89
2U C g 1 (cid:107)IV − DA1(cid:107)2 C f 2U C g 1 (cid:107)IV − DA1(cid:107)2 C f 0.90
2U C g 1 (cid:107)IV − DA1(cid:107)2 C f 2U C g 1 (cid:107)IV − DA1(cid:107)2 C f 0.90
√ U U √ (cid:107)µ1(cid:107)2(cid:33) (cid:107)µ1(cid:107)2(cid:33) (dw( ˜µ1, µ1) + dw(µ1, µ2)) (cid:107)µ1(cid:107)2(cid:33)( cid:32)(cid:114) U − V √ うう うう √ (cid:107)μ1(cid:107)2(cid:33) (cid:107)μ1(cid:107)2(cid:33) (dw(μ1, μ1) + dw(μ1, μ2)) (cid:107)μ1(cid:107)2(cid:33)( cid:32)(cid:114) U − V 0.68
√ (cid:107)µ1(cid:107)2 + dw(µ1, µ2)(cid:33) . √ (cid:107)μ1(cid:107)2 + dw(μ1, μ2)(cid:33) 。 0.80
U V + + + うう V + + + 0.77
(Property 2.3) 1 2 (37) (2.3) 1 2 (37) 0.79
(Property 2.3) (Theorem A.5) (2.3) (理論A.5) 0.68
(38) (Property A.4) (38) (A.4) 0.78
(Theorem A.6) (理論A.6) 0.72
英語(論文から抽出)日本語訳スコア
Finally, plugging (38) into (34), we have 最後に、(38) を (34) に接続します。 0.78
dw(¯λ1, ¯λ2) dw(λ1, λ2) である。 0.61
(cid:107)¯λ1(cid:107)2 (cid:107) λ1(cid:107)2 0.75
≤(cid:114) U − V ≤(cid:114) U − V 0.96
V U 1 − D(cid:107)A1(cid:107 )2(cid:32) V U 1 − D(cid:107)A1(cid:107 )2(cid:32) 0.83
1 + A.4. The proof of Corollary 2.5 1 + A.4。 Corollary 2.5の証明 0.81
Plugging U = V into (39), we obtain U = V を (39) に接続します。 0.73
Hawkes Processes on Graphons グラフ上のホークス過程 0.64
√ 2U C g 1 (cid:107)IV − KA1(cid:107)2 C f √ 2U C g 1 (cid:107)IV − KA1(cid:107)2 C f 0.89
1 (cid:107)µ1(cid:107)2(cid:33)( cid:32)(cid:114) U − V 1 (cid:107)μ1(cid:107)2(cid:33)( cid:32)(cid:114) U − V 0.81
V (cid:107)µ1(cid:107)2 + dw(µ1, µ2)(cid:33) . V (cid:107)μ1(cid:107)2 + dw(μ1, μ2)(cid:33) 。 0.80
(39) + dw(¯λ1, ¯λ2) (39) + dw(λ1, λ2) である。 0.77
(cid:107)¯λ1(cid:107)2 (cid:107) λ1(cid:107)2 0.75
≤ dw(µ1, µ2) ≤ dw(μ1, μ2) 0.94
1 − D(cid:107)A1(cid:107 )2(cid:32) 1 − D(cid:107)A1(cid:107 )2(cid:32) 0.80
√ 2V C g 1 (cid:107)IV − DA1(cid:107)2 C f √ 2V C g 1 (cid:107)IV − DA1(cid:107)2 C f 0.89
1 (cid:107)µ1(cid:107)2(cid:33) . 1 (cid:107)μ1(cid:107)2(cid:33)。 0.77
+ (40) B. Details of Our Algorithm and Experiments + (40) B。 我々のアルゴリズムと実験の詳細 0.83
u , N l 1 , ..., tu u 、 N l 。 1 , ..., tu 0.78
v) in (10) v) in (10) 0.85
Denote {tu to N l tu を n l に表記する 0.49
B.1. The implementation of d((cid:98)N k v(t). B.1。 d((cid:98)N k v(t) の実装。 0.66
Without loss of generality, we assume I ≤ J and calculate d((cid:98)N k T (cid:90) T 一般性を失うことなく、I ≤ J を仮定して d((cid:98)N k T (cid:90) T を計算する。
訳抜け防止モード: 一般性を失うことなく i ≤ j で d((cid:98)n k t (cid:90 ) t を計算する
0.87
I} ⊂ [0, T ] as the sequence corresponding to (cid:98)N k T (cid:88)I d((cid:98)N k I} [0, T ] は (cid:98)N k T (cid:88)I d((cid:98)N k)に対応する列である。 0.84
u (t) and {tv u , N l |tu i − tv u (t) と {tv u , N l |tu i − tv 0.90
u (t) − N l u (t) − N l 0.85
v(t)|dt = |(cid:98)N k v(t)|dt = |(cid:98)N k 0.94
u , N l i=1 u 、 N l 。 i=1 0.72
1 v) = 1 0 1 v) = 1 0 0.85
1, ..., tv v) as 1、...、テレビv) 0.77
i | + (cid:88)J i | + (cid:88)J 0.94
i=I+1 J} ⊂ [0, T ] the sequence corresponding i=I+1 j} ] [0, t ] 対応する配列 0.53
|T − tv i |. テレビ - テレビ - テレビ - テレビ。 0.53
(41) As proven in (Xiao et al., 2017), the distance in (41) is a valid metric for the event sequences with a single event type. (41) xiao et al., 2017 で証明されたように、距離 in (41) は単一のイベントタイプを持つイベントシーケンスの有効なメトリックである。
訳抜け防止モード: (41) で証明されている(Xiao et al ., 2017)。 41)内の距離は、単一のイベントタイプを持つイベントシーケンスの有効なメトリックである。
0.84
B.2. The significance of Vmax in theory Suppose that we have two GHP models, whose maximum numbers of event types are Vmax and ˆVmax, respectively. b.2. 理論におけるvmaxの意義は、2つのghpモデルがあり、その最大イベントタイプはvmaxとvmaxである。
訳抜け防止モード: b.2. 理論におけるVmaxの重要性を仮定する 2つのGHPモデルがあり、イベントの最大数はそれぞれ Vmax と ...Vmax である。
0.76
Based on (4), we know that the expected numbers of event types of their event sequences are Vmax . (4)に基づいて、イベントシーケンスの期待されるイベントタイプの数はVmaxであることがわかります。 0.81
For the two sequences having ˆVmax event types, respectively, Property 2.4 indicates that the difference between their average intensity 2 Vmaxイベント型を持つ2つのシーケンスについて、Property 2.4は平均強度2の違いを示している。 0.72
vectors is O(cid:18)(cid:114) |Vmax− ˆVmax| ベクトルは O(cid:18)(cid:114) |Vmax− >Vmax| 0.68
min{Vmax, ˆVmax}(cid:19). min{Vmax, svmax}(cid:19)。 0.91
Therefore, when training our GHP model, we need to carefully set Vmax based on the したがって、GHPモデルをトレーニングする際には、Vmaxを慎重に設定する必要がある。 0.73
training data. トレーニングデータだ 0.68
Empirically, we calculate the averaged number of event types per sequence, denoted as ¯V and set Vmax = 2 ¯V . 経験的に、シーケンス毎のイベントタイプの平均数を計算し、vmax = 2 かつv とする。
訳抜け防止モード: 経験的に、1シーケンスあたりの平均イベントタイプ数を計算する。 v と表記され、vmax = 2 で表される。
0.64
and ˆVmax 2 そして、vmax 2 0.85
and Vmax 2 2 そしてVmax 2 2 0.83
B.3. The Sinkhorn scaling algorithm B.3。 Sinkhornのスケーリングアルゴリズム 0.71
When calculating the HOT distance, we need to solve a series of optimal transport problem. ホット距離を計算するとき、我々は一連の最適な輸送問題を解く必要がある。 0.80
All the problems can be written in the following matrix format: すべての問題は、次のマトリックス形式で書くことができます。 0.71
We apply the Sinkhorn scaling algorithm (Cuturi, 2013) to solve this problem approximately. この問題を解決するために、Sinkhornのスケーリングアルゴリズム(Cuturi, 2013)を適用します。 0.79
In particular, we add an entropic regularizer with a weight β into (42) and rewrite it as 特に、重量βのエントロピー正規化剤を(42)に添加し、次のように書き換えます。 0.67
min T ∈Π(p,q) 分 T ∈(p,q) 0.66
(cid:104)D, T(cid:105). (cid:104)D,T(cid:105 )。 0.80
(42) T ∈Π(p,q) Then, we can solve (43) by the following algorithm. (42) T ∈(p,q) すると、次のアルゴリズムで (43) を解くことができる。 0.84
min (cid:104)D, T(cid:105) + β(cid:104)log T , T(cid:105). 分 (cid:104)D, T(cid:105) + β(cid:104)log T , T(cid:105)。 0.70
(43) B.4. The implementation of dfgw(ˆθ, θ) Given two GHP modeled on Ω, denoted as GHPΩ(fa, ga) and GHPΩ(fb, gb). (43) B.4。 dfgw(aθ, θ) の実装には GHPΩ(fa, ga) と GHPΩ(fb, gb) と表記される Ω をモデル化した 2つの GHP が与えられる。 0.76
Denote SΩ as the set of measure-preserving mappings from Ω to Ω. SΩ を Ω から Ω への測度保存写像の集合として記述する。 0.66
Based on the theory of graphon (Lov´asz, 2012), the distance between these two GHP models can be measured by the δ2 distance between their parameters: グラノン理論(Lov ́asz, 2012)に基づき、これらの2つのGHPモデル間の距離は、パラメータ間のδ2距離によって測定できる。 0.79
d(GHPΩ(fa, ga), GHPΩ(fb, gb)) = inf s∈SΩ d(GHPΩ(fa,ga),GHPΩ(fb,gb)) = inf s・SΩ 0.93
(cid:107)fa − f s (cid:107)fa − f s 0.94
b (cid:107)L2 + (cid:107)ga − gs b (cid:107)L2 + (cid:107)ga − gs 0.85
b(cid:107)L2, b(cid:107)L2, 0.82
(44) (44) 0.85
英語(論文から抽出)日本語訳スコア
Algorithm 2 minT ∈Π(p,q)(cid:104)D, T(cid:105) + β(cid:104)log T , T(cid:105) 1: Initialize T (0) = pq(cid:62), a = p, C = exp(− 1 2: for j = 0, ..., J − 1 3: 4: T = diag(a)Cdiag(b). アルゴリズム 2 minT ∈(p,q)(cid:104)D, T(cid:105) + β(cid:104)log T , T(cid:105) 1: Initialize T(0) = pq(cid:62), a = p, C = exp(− 1 2: for j = 0, ..., J − 1 3: 4: T = diag(a)Cdiag(b)。 0.91
Sinkhorn iteration: b = q Sinkhorn 反復: b = q 0.77
C(cid:62)a, a = p Cb, C(cid:62)a, a = p Cb, 0.99
β D). Hawkes Processes on Graphons β D)。 グラフ上のホークス過程 0.70
b (x) = fb(s(x)) and gs b(x) = fb(s(x)) および gs 0.83
where f s one map s ∈ SΩ making d(GHPΩ(fa, ga), GHPΩ(fb, gb)) = 0. ここで f s 1 つの写像 s ∈ SΩ が d(GHPΩ(fa, ga), GHPΩ(fb, gb)) = 0 となる。 0.83
According to the theory of optimal transport (Villani, 2008), the first term of (44) can be implemented as the Wasserstein distance between fa and fb. 最適輸送の理論(Villani, 2008)によると、(44)の最初の項は、faとfbの間のWasserstein距離として実装することができる。 0.74
For the second term, the work in (Lov´asz, 2012) implies that we can rewrite them as the Gromov-Wasserstein distance (M´emoli, 2011) between ga and gb. 第2の用語として、(lov ́asz, 2012) では、ga と gb の間の gromov-wasserstein 距離 (m ́emoli, 2011) として書き直すことができる。 0.74
Combining these two distance together leads to the Fused Gromov-Wasseserstein (FGW) distance (Vayer et al., 2018): これら2つの距離を組み合わせることで、Fused Gromov-Wasseserstein (FGW) 距離に繋がる(Vayer et al., 2018)。
訳抜け防止モード: これら2つの距離を結合する Fused Gromov-Wasseserstein (FGW ) 距離への導出(Vayer et al , 2018)
0.90
b (x, y) = gb(s(x), s(y)). b (x, y) = gb(s(x), s(y)) である。 0.84
We say the two GHP models are equivalent if there exists at least 少なくとも存在する場合、2つのGHPモデルが同値であると言う。 0.73
dfgw(GHPΩ(fa, ga), GHPΩ(fb, gb)) dfgw(GHPΩ(fa,ga),GHPΩ(fb,gb)) 0.88
:= inf π∈Π(p,q) := inf π∈(p,q) 0.89
Ex,x(cid:48)∼π(cid:2)|fa(x) − fb(x(cid:48))|2(cid:3) + Ex,x(cid:48),y,y(cid :48)∼π⊗π(cid:2)|ga(x, y) − gb(x(cid:48), y(cid:48))|2(cid:3) . Ex,x(cid:48) π(cid:2)|fa(x) − fb(x(cid:48))|2(cid:3) + Ex,x(cid:48),y,y(cid :48) π π(x, y) − gb(x(cid:48), y(cid:48)|2(cid:3) 。 0.94
Here, we assume p and q are two uniform distribution on Ω. ここで、p と q は Ω 上の2つの一様分布であると仮定する。 0.66
In our experiment, GHPΩ(fa, ga) and GHPΩ(fb, gb) correspond to the ground truth model and the learning result, respectively, and we use (45) as the measurement of the estimation error. 実験では, GHPΩ(fa, ga) と GHPΩ(fb, gb) はそれぞれ基底真理モデルと学習結果に対応し, (45) を推定誤差の測定に用いる。 0.77
(45) N , ..., N−1 i ] ∈ RN , Ga = [ga (45) N , ..., N−1 i ] ∈ RN , Ga = [ga] 0.90
N (cid:9). N (cid:9)。 0.84
Accordingly, we obtain the discrete ij] ∈ RN×N . したがって、離散 ij] ∈ RN×N を得る。 0.69
ij] ∈ RN×N , and Gb = [gb ii(cid:48) − gb ij] ∈ RN×N , そして Gb = [gb ii(cid:48) − gb 0.94
jj(cid:48)|2 jj(cid:48)|2 0.78
(46) TijTi(cid:48)j(cid:4 8)|ga (46) TijTi(cid:48)j(cid:4 8)|ga 0.82
representation of each function, i.e., fa = [f a Then, we obtain the discrete version of (45) それぞれの関数の表現、すなわち fa = [f a then, we obtain the discrete version of (45) 0.79
In practice, we set Ω = [0, 1] and uniformly N samples from it, i.e.,(cid:8)0, 1 N(cid:88)i,i(cid:48) ,j,j(cid:48)=1 minT ∈Π(p,q) = minT ∈Π(p,q)(cid:104)Df , T(cid:105) + (cid:104)Dg − 2GaT G(cid:62)b , T(cid:105), j |2], Dg = 1 実際には、Ω = [0, 1] とそれから一様 N 個のサンプル、すなわち (cid:8)0, 1 N(cid:88)i, i(cid:48),j,j(cid:48 )=1 minT ∈n(p,q) = minT ∈n(p,q)(cid:104)Df , T(cid:105) + (cid:104)Dg − 2GaT G(cid:62)b , T(cid:105), j |2], Dg = 1 とする。 0.90
i ] ∈ RN , fb = [f b i ] ∈ RN , fb = [f b] 0.89
N(cid:88)i,j=1 N(cid:88)i,j=1 0.78
i − f b Tij|f a i − f b Tij|f a 0.78
j |2 + i − f b j |2 + i − f b 0.90
where Df = [|f a by the proximal gradient method in (Xu et al., 2019). ここでDf = [|f a by the proximal gradient method in (Xu et al., 2019)。 0.81
Algorithm 3 minT ∈Π(p,q)(cid:104)Df , T(cid:105) + (cid:104)Dg − 2GaT G(cid:62)b , T(cid:105) 1: Initialize T (0) = pq(cid:62), a = p 2: for j = 0, ..., J − 1 3: C = exp 4: 5: 6: Return T (J) アルゴリズム 3 minT ∈(p,q)(cid:104)Df , T(cid:105) + (cid:104)Dg − 2GaT G(cid:62)b , T(cid:105) 1: 初期化 T(0) = pq(cid:62), a = p 2: for j = 0, ..., J − 1 3: C = exp 4: 5: 6: Return T(J) 0.95
Sinkhorn iteration: b = q T (j+1) = diag(a)Cdiag(b). シンクホーン反復: b = q T (j+1) = diag(a)Cdiag(b)。 0.85
α (Df + Dg − 2GaT (j)G(cid:62) b ) α (Df + Dg − 2GaT (j)G(cid:62) b) 0.99
(cid:17) (cid:12) T (j). (cid:17) (cid:12) T (j) 0.88
C(cid:62)a , a = p Cb , C(cid:62)a , a = p Cb , 0.99
(cid:16)− 1 (cid:16)- 1 0.88
N (Ga (cid:12) Ga + Gb (cid:12) Gb), and (cid:12) is the Hadamard product. N (Ga (cid:12) Ga + Gb (cid:12) Gb) および (cid:12) はハダマール積である。 0.78
This problem can be solved この問題は解決できます 0.90
B.5. The dot((cid:98)N ,N ) of baselines The baselines also calculate dot((cid:98)N ,N ) by (9). B.5。 ベースラインのドット((cid:98)N ,N ) また、(cid:98)N ,N ) を (9) で計算する。 0.72
However, because the event types of their generated sequences perfectly |V|(cid:80)v∈V しかし、生成された列のイベントタイプが完全に |v|(cid:80)v ajaxv であるため 0.54
correspond to those of the testing sequences, they can calculate the distance between each pair of sequences as d( ˆNk, Nl) = 1 テストシーケンスのそれらに相当し、各ペアのシーケンス間の距離を d(\Nk, Nl) = 1 として計算できます。 0.77
v) rather than using (10). v) (10) を使わないこと。 0.75
v , N l d((cid:98)N k v 、 N l。 d((cid:98)N k 0.88
                                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。