論文の概要、ライセンス

# (参考訳) 連続時間系列のための学習ニューラルモデル [全文訳有]

Learning Neural Models for Continuous-Time Sequences ( http://arxiv.org/abs/2111.07189v1 )

ライセンス: CC BY 4.0
Vinayak Gupta(参考訳) オンライン購入、健康記録、空間移動などの人間の活動によって生成される大量のデータは、連続して連続するイベントのシーケンスとして記憶される。 このようなシーケンス上でディープラーニングの方法を学ぶことは、イベントタイムスタンプ、イベント間時間ギャップ、イベントタイプ、イベント間の影響を、異なるシーケンス内および異なるシーケンス間でモデル化する、非常に簡単なタスクです。 この状況は、制限されたデータ、不完全なシーケンス、プライバシー制限など、データ収集に関連する制約によってさらに悪化する。 本稿では,本研究の方向性として,連続時間イベントシーケンス(cte)の特性を考察し,前述の問題を克服するために頑健でスケーラブルなニューラルネットワークモデルを設計することを目的とする。 本研究では,mtpp(marked temporal point process)を用いてイベントの生成分布をモデル化し,実世界の幅広い問題に対処する。 さらに,最先端のベースラインに対する提案手法の有効性を強調し,今後の研究課題を報告する。

The large volumes of data generated by human activities such as online purchases, health records, spatial mobility etc. are stored as a sequence of events over a continuous time. Learning deep learning methods over such sequences is a non-trivial task as it involves modeling the ever-increasing event timestamps, inter-event time gaps, event types, and the influences between events -- within and across different sequences. This situation is further exacerbated by the constraints associated with data collection e.g. limited data, incomplete sequences, privacy restrictions etc. With the research direction described in this work, we aim to study the properties of continuous-time event sequences (CTES) and design robust yet scalable neural network-based models to overcome the aforementioned problems. In this work, we model the underlying generative distribution of events using marked temporal point processes (MTPP) to address a wide range of real-world problems. Moreover, we highlight the efficacy of the proposed approaches over the state-of-the-art baselines and later report the ongoing research problems.
公開日: Sat, 13 Nov 2021 20:39:15 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Learning Neural Models for Continuous-Time Sequences 連続時間系列のための学習ニューラルモデル 0.65
Vinayak Gupta ヴィニャーク・グプタ(Vinayak Gupta) 0.38
IIT Delhi vinayak.gupta@cse.ii td.ac.in IITデリー vinayak.gupta@cse.ii td.ac.in 0.41
1 2 0 2 v o N 3 1 1 2 0 2 v o n 3 1 である。 0.54
] G L . s c [ ] G L。 sc [ 0.47
1 v 9 8 1 7 0 1 v 9 8 1 7 0 0.42
. 1 1 1 2 : v i X r a . 1 1 1 2 : v i X r a 0.42
ABSTRACT The large volumes of data generated by human activities such as online purchases, health records, spatial mobility etc. are stored as a sequence of events over a continuous time. オンライン購入、健康記録、空間移動などの人間の活動によって生成された大量のデータを連続した一連のイベントとして格納する。 0.68
Learning deep learning methods over such sequences is a non-trivial task as it involves modeling the ever-increasing event timestamps, inter-event time gaps, event types, and the influences between events – within and across different sequences. このようなシーケンス上でディープラーニングの方法を学ぶことは、イベントタイムスタンプ、イベント間の時間ギャップ、イベントタイプ、イベント間の影響を、さまざまなシーケンス内で、そして、またがってモデル化することを含む、非常に簡単なタスクです。
訳抜け防止モード: このようなシーケンスによる深層学習手法の学習 イベントタイムスタンプの増大をモデル化する、非自明なタスクです。 Inter - イベント時間ギャップ、イベントタイプ、イベント間の影響 - 異なるシーケンス内および横断。
0.72
This situation is further exacerbated by the constraints associated with data collection e g limited data, incomplete sequences, privacy restrictions etc. この状況は、データ収集に関連する制約、例えば制限データ、不完全なシーケンス、プライバシー制限などによってさらに悪化します。 0.71
With the research direction described in this work, we aim to study the properties of continuous-time event sequences (CTES) and design robust yet scalable neural network-based models to overcome the aforementioned problems. 本稿では,本研究の方向性として,連続時間イベントシーケンス(cte)の特性を考察し,前述の問題を克服するために頑健でスケーラブルなニューラルネットワークモデルを設計することを目的とする。 0.72
In this work, we model the underlying generative distribution of events using marked temporal point processes (MTPP) to address a wide range of real-world problems. 本研究では,mtpp(marked temporal point process)を用いてイベントの生成分布をモデル化し,実世界の幅広い問題に対処する。 0.81
Moreover, we highlight the efficacy of the proposed approaches over the stateof-the-art baselines and later report the ongoing research problems. さらに,最先端のベースラインに対する提案手法の有効性を強調し,今後の研究課題を報告する。 0.74
ACM Reference Format: Vinayak Gupta. ACM参照フォーマット: Vinayak Gupta。 0.78
2021. Learning Neural Models for Continuous-Time Sequences. 2021. 連続時間系列の学習ニューラルモデル。 0.59
In Proceedings of the First International Conference on AI-ML Systems, October 21–23, 2021, Bangalore, India. 2021年10月21-23日 - インド・バンガロールで開催されたAI-MLシステムに関する第1回国際会議。 0.64
ACM, New York, NY, USA, 3 pages. ACM, New York, NY, USA, 3ページ。 0.80
https://doi.org/10.1 145/nnnnnnn.nnnnnnn https://doi.org/10.1 145/nnnnnnn.nnnnnnn 0.15
1 MOTIVATION Continuous-time event sequences (CTES) have become pervasive across many applications ranging from healthcare [12], traffic [7, 19], social networks [3, 4], finance [8, 13], and sensor networks [10, 15]. 1 MOTIVATION 連続時間イベントシーケンス (CTES) は,医療[12],交通[7,19],ソーシャルネットワーク[3,4],金融[8,13],センサネットワーク[10,15]など,多くのアプリケーションで普及している。 0.75
Unlike images and text, the data quality of CTES is highly susceptible to the collection process i.e. a few missing events or shorter sequences can significantly hamper the data quality and consequently the performance of the neural models trained on such datasets. 画像やテキストとは異なり、CTESのデータ品質はコレクションプロセスに非常に影響を受けやすい。つまり、少数の欠落したイベントや短いシーケンスは、データ品質を著しく妨げ、結果としてそのようなデータセットでトレーニングされたニューラルモデルのパフォーマンスを損なう可能性がある。 0.60
This situation is further exacerbated by privacy restrictions such as GDPR [2] and thus, overcoming the drawbacks in dataset quality is a non-trivial task unaddressed in the past literature. この状況はGDPR [2]のようなプライバシー制限によってさらに悪化しており、データセット品質の欠点を克服することは、過去の文献では未解決の非自明なタスクである。 0.64
2 PRELIMINARIES: MTPP Marked temporal point processes (MTPP) are stochastic processes realized by a sequence of asynchronous events in continuous-time. 2 PreLIMINARIES: MTPPマーク付き時間点プロセス(MTPP)は連続時間における非同期イベントのシーケンスによって実現される確率過程である。 0.76
Permission to make digital or hard copies of all or part of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page. 本作品のデジタル又はハードコピー又は一部を個人的又は教室で使用するための許可は、利益または商業的利益のためにコピーが作成または配布されず、コピーがこの通知及び第1ページの引用を満たしていることが条件として、無償で付与される。
訳抜け防止モード: この作品の全部又は一部をデジタル又はハードコピーして個人または教室での使用許可 手数料なしで与えられます 利益や商業上の利益のためにコピーは作られない そのコピーには この通知と 最初のページの全文が書かれています
0.82
Copyrights for components of this work owned by others than the author(s) must be honored. 本作品の著作権は,著作者以外の著作物の著作権を尊重しなければならない。 0.63
Abstracting with credit is permitted. クレジットによる抽象化は許可されている。 0.48
To copy otherwise, or republish, to post on servers or to redistribute to lists, requires prior specific permission and/or a fee. サーバーにポストしたり、リストを再配布したりするには、事前の特定の許可と/または料金が必要である。 0.60
Request permissions from permissions@acm.org. permissions@acm.org からの許可を要求する。 0.65
AI-ML Systems ’21, October 21–23, 2021, Bangalore, India. AI-ML Systems ’21, October 21–23, 2021, インドのバンガロール。 0.80
© 2021 Copyright held by the owner/author(s). 第2021条 所有者又は著作者による著作権 0.67
Publication rights licensed to ACM. ACMにライセンスされた出版権。 0.69
ACM ISBN 978-1-4503-8446-9/21 /11. ACM ISBN 978-1-4503-8446-9/21 /11。 0.17
. . $15.00 https://doi.org/10.1 145/nnnnnnn.nnnnnnn . . 15.00 https://doi.org/10.1 145/nnnnnnnnn 0.29
We represent an MTPP Sk = {ei = (mi, ti)|i ∈ [k], ti < ti+1}, where ti ∈ R+ is the occurrence time and mi ∈ C is the discrete mark associated with the i-th event, with C as the set of all discrete marks. MTPP Sk = {ei = (mi, ti)|i ∈ [k], ti < ti+1} ここで、ti ∈ R+ は発生時刻であり、mi ∈ C は i 番目の事象に関連する離散マークであり、C はすべての離散マークの集合である。 0.84
Here, Sk denotes the sequence of first k events and we represent the inter-arrival times as, ∆t,k = tk − tk−1. ここで、Sk は最初の k つの事象の列を表し、我々は、 t , k = tk − tk−1 である。 0.67
If the sequences have a spatial component i.e. ei = (mi, ti, di) then we represent the inter-event spatial differences as ∆d,k = dk −dk−1. 列が空間成分、すなわちei = (mi, ti, di) を持つならば、イベント間の空間差は sd,k = dk − dk−1 で表される。 0.79
3 RESEARCH DIRECTIONS In this section, we highlight the CTES data-related problems addressed in our research plan and the proposed solutions. 3 考察 本稿では,本研究計画におけるCTESデータ関連問題と提案した解決策について紹介する。 0.85
We classify them into the following categories: 私たちはそれらを以下のカテゴリに分類します。 0.58
3.1 Incomplete Sequences Traditional models and inference methods for CTES assume a complete observation scenario i.e. the events in a sequence are completely observed with no missing events – an ideal setting and rarely applicable in real-world applications. 3.1 不完全シーケンス cte の伝統的なモデルと推論手法は完全な観測シナリオを想定している。
訳抜け防止モード: 3.1 不完全なシーケンス CTESの伝統的なモデルと推論方法は、完全な観測シナリオを仮定する。 実世界のアプリケーションに適用されることはめったにありません。
0.63
Undeniably, any data collection procedure may not capture some events due to crawling and privacy restrictions by online platforms. もちろん、あらゆるデータ収集手順は、オンラインプラットフォームによるクローリングとプライバシー制限のために、何らかのイベントをキャプチャできない。 0.56
As mentioned in Section 1, these missing events can drastically affect the quality of data and hence, the prediction performance of the learned model. 第1節で述べたように、これらの欠落した事象はデータの質に大きく影響し、学習モデルの予測性能に影響を及ぼす可能性がある。
訳抜け防止モード: 第1節で述べたように、これらの欠落したイベントはデータの質に大きく影響する可能性がある。 学習モデルの予測性能
0.77
Proposed Solution. In Gupta et al [7], we present an unsupervised model and inference method for learning neural MTPP over CTES with missing events. 解決策の提案。 Gupta et al [7]では、欠落した事象をCTES上で学習するための教師なしモデルと推論法を提案する。 0.46
Specifically, we design a coupled-MTPP approach that first models the generative processes of both – observed events and missing events – where the missing events are represented as latent-random variables. 具体的には、まず、欠落したイベントを潜在ランダム変数として表現する、観測イベントと欠落イベントの両方の生成プロセスをモデル化する、結合MTPPアプローチを設計する。 0.64
Later, we jointly learn the distribution of all events via MTPP using variational inference. その後、変分推論を用いてmtppを介して全てのイベントの分布を共同学習する。 0.60
The proposed model IMTPP (Intermittently-obse rved Marked Temporal Point Processes) models the generative distribution of observed events (ek) and missing events (ǫr) using MTPP denoted as p(•) and q(•) respectively. 提案したIMTPP (Intermittently-obse rved Marked Temporal Point Processes) は,p(•) と q(•) で表されるMTPPを用いて観測された事象(ek) と欠落事象の生成分布をモデル化する。 0.88
For generating future observed events, we follow a standard sampling procedure [13], however, the generation process of missing events is conditioned on the history as well as the next observed event. 将来観測された事象を生成するためには, 標準サンプリング手順 [13] を踏襲するが, 欠落した事象の発生過程は, 次の観測事象と同様に履歴に基づいて条件づけされる。 0.70
Specifically, we sample missing events between two observed events, till we reach the future observed event i.e. the MTPP are – p(ek) and q(ǫr|ek+1) respectively. 具体的には、2つの観測された事象の間に欠落した事象をサンプリングし、mtppがそれぞれ - p(ek) と q(\r|ek+1) となるように将来の観測事象に到達する。
訳抜け防止モード: 具体的には、将来の観測イベントに到達するまで、2つの観測イベントの間に欠落するイベントをサンプリングする。 と、それぞれ q(\r|ek+1 ) である。
0.68
We learn the parameter by maximizing a variational lower bound or evidence lower bound (ELBO) of the log-likelihood. 我々は,ログの変動的下限やエビデンス下限(ELBO)を最大化することにより,パラメータを学習する。 0.65
Eq K−1 k=0 Eq K−1 シュク=0 0.38
log p(ek+1) − log p(ek+1) − 0.46
K−1 k=0 KL(cid:20)q(ǫr|ek+1)||pr(ǫr))(cid:21) , K−1 シュク=0 KL(cid:20)q(...r|ek+1)||pr(...r))(cid:21) , 0.34
(1) where pr, KL denote prior MTPP and KL-divergence respectively. (1) ここで pr, KL はそれぞれ MTPP と KL-分岐を表す。 0.57
Results. We evaluated IMTPP across five datasets from different domains ranging from – Amazon Movies, Amazon Toys, Twitter, Foursquare, and Stack-Overflow. 結果だ IMTPPは、Amazon Movies、Amazon Toys、Twitter、Foursquare、Stack-Overflowなど、さまざまなドメインの5つのデータセットで評価しました。 0.65
To summarize the results, our observations were: (1) for predicting the mark and time of events in the test set, IMTPP outperformed the state-of-the-art approaches [3, 結果の要約として, 1) テストセットにおけるイベントのマークと時刻を予測するため, IMTPP は最先端のアプローチ [3。 0.65
英語(論文から抽出)日本語訳スコア
AI-ML Systems ’21, October 21–23, 2021, Bangalore, India. AI-ML Systems ’21, October 21–23, 2021, インドのバンガロール。 0.80
Vinayak Gupta ヴィニャーク・グプタ(Vinayak Gupta) 0.38
13, 19], by up to 8% across all datasets, (2) for forecasting future events in a sequence, the gains IMTPP had over other baselines we consistent even for farther predictions, and (3) a scalability analysis over datasets with millions of events showed that other CTES models took up to 24 hours training times, whereas the times for IMTPP were under 5 hours. 13, 19]は,全データセットの最大8%,(2)シーケンス内の将来のイベントを予測するために,(2)IMTPPが他のベースラインをはるかに上回り,(3)数百万のイベントを含むデータセットのスケーラビリティ解析により,他のCTESモデルでは24時間,IMTPPでは5時間以下であった。 0.71
Ongoing Work and Challenges. 仕事と挑戦を始める。 0.76
As an extension to IMTPP, we addressed the problem of imputing missing events in a sequence. IMTPPの拡張として、欠落した事象を列に列挙する問題に対処した。 0.57
Specifically, we sampled missing events using the posterior MTPP and evaluated over synthetically deleted events in a sequence. 具体的には,後部MTPPを用いて欠失事象をサンプリングし,合成削除事象を連続的に評価した。 0.57
The results, including qualitative analysis, showed that the new approach outperforms other baselines and opens up new applications of neural models and CTES. 質的な分析を含む結果は、新しいアプローチが他のベースラインを上回っ、ニューラルモデルとCTESの新しい応用を開放することを示した。 0.67
This extension is under review in a reputed journal. この拡張は、報道されたジャーナルでレビュー中である。 0.56
A major challenge with imputations is to estimate the total number of missing events between each observed event. 命令の最大の課題は、観測された各イベント間で欠落するイベントの総数を見積もることである。
訳抜け防止モード: 抑止に関する大きな課題は 観測された各イベント間の 行方不明イベントの総数を推定します
0.80
3.2 Limited Training Data The problem of limited training data is ubiquitous in all real-world applications ranging from recommender systems [16], vision [14], spatial models [17] etc. 3.2 限られたトレーニングデータ 制限されたトレーニングデータの問題は、レコメンデーションシステム[16]、視覚[14]、空間モデル[17]など、現実世界のすべてのアプリケーションにおいてユビキタスである。 0.72
In contrast to incomplete data, defined in Section 3.1, we regard limited data as the problem of data-scarcity i.e. the available data is assumed to be complete but the volume is insufficient to effectively train a deep neural network. 第3.1節で定義された不完全なデータとは対照的に、限られたデータはデータカーシティの問題、すなわち利用可能なデータが完備であると仮定されるが、ボリュームが不足し、ディープニューラルネットワークを効果的に訓練することができない。
訳抜け防止モード: セクション3.1で定義された不完全データとは対照的に、限られたデータはデータの問題、すなわち不足であると考えている。 利用可能なデータは 深層ニューラルネットワークを効果的に訓練するには ボリュームが不十分です
0.68
Proposed Solution. Transfer learning (TL) has long been proposed as a feasible solution to overcome limited data problems [18]. 解決策の提案。 転送学習(tl)は、限られたデータ問題を克服するための実現可能なソリューションとして長い間提案されてきた [18]。 0.48
Accordingly, in Gupta and Bedathur [6], we present a transfer approach for training neural MTPP on a data-rich dataset and finetune the model parameters on a data-scarce dataset. そこで、GuptaとBedathur [6]では、データリッチデータセット上でニューラルMTPPをトレーニングし、データスカースデータセット上でモデルパラメータを微調整するトランスファーアプローチを提案する。
訳抜け防止モード: そこで,gupta と bedathur [6 ] では,トランスファーアプローチを提案する。 研修 neural mtpp on a data - rich dataset and finetune the model parameters on a data - scarce dataset。
0.82
In detail, we consider the problem of mobility prediction, wherein we have spatial trajectories of users across different regions and regions with data-rich mobility sequence as a source region and the target region with scarce mobility data. 具体的には,データに富んだモビリティシーケンスをソース領域とする地域と,モビリティデータの少ない対象領域にまたがるユーザの空間的特徴を有するモビリティ予測の問題について考察する。
訳抜け防止モード: 具体的には,データに富む移動度系列をソース領域として,異なる地域や地域をまたがるユーザの空間的特徴を有する移動度予測の問題を考える。 モビリティデータが少ない ターゲット領域です
0.80
The proposed model REFORMD(Reusable Flows for Mobility Data), learns the spatial and temporal distribution of a user trajectory using normalizing flows(NFs) [11]. 提案モデルであるREFORMD(Reusable Flows for Mobility Data)は,正規化フロー(NFs)[11]を用いて,ユーザの軌道の空間的および時間的分布を学習する。 0.89
We make the trained NFs invariant to a region, by restricting our model to learn the distribution of inter-event time intervals, ∆t,•, and spatial distances, ∆d,•. 訓練されたNFを領域に不変にし、時間間隔, t,•および空間距離, d,•の分布を学習するためにモデルを制限する。 0.70
Since these features are independent of the underlying region, the trained NFs can be easily fine-tuned for any mobility sequence. これらの特徴は基礎領域とは独立であるため、訓練されたNFは任意の移動列に対して容易に微調整することができる。 0.55
Moreover, we use a log-normal flow to model both distributions e g for time, the generative distribution for future events is learned as: さらに,両分布を時間的にモデル化するためにログ正規化フローを用い,今後の事象生成分布を次のように学習する。 0.81
pt(∆t,k+1|sk) = LogNormal(cid:0)µt(sk), σ2 pt(t,k+1|sk) = LogNormal(cid:0)μt(sk), σ2 0.40
t (sk)(cid:1) , t (sk)(cid:1) , 0.48
(2) with [µt(sk), σ2 t (sk)] = [W1sk + b1, W2sk + b2] denote the mean and variance of the time distribution. (2) μt(sk) で σ2 t (sk)] = [W1sk + b1, W2sk + b2] は時間分布の平均と分散を表す。 0.65
sk is the output of neural MTPP, W• and b• are trainable parameters. skはneural mtpp、w•、b•の出力であり、トレーニング可能なパラメータである。 0.60
We sample the time of future events as ∆t,k+1 ∼ pt and a similar procedure is followed for spatial flows. 我々は,将来の事象の時刻を t,k+1 > pt とし,同様の手順を空間流に追従する。 0.63
All model parameters are trained by maximizing the location recommendation accuracy and the likelihood of time and distance of events, Moreover, we use a standard procedure to fine-tune the model parameters on the sequences from the target region. 全てのモデルパラメータは、位置推薦精度を最大化し、イベントの時間と距離を最大化することで訓練される。
訳抜け防止モード: すべてのモデルパラメータはトレーニングされる 位置推奨精度とイベントの時間と距離の最大化。 さらに、標準的な手順で罰金を課します。 対象領域からのシーケンスの モデルパラメータをチューニングします
0.77
Results. We evaluated our model across eight mobility datasets from the US and Japan and our observations were: (1) for location recommendation and event-time prediction, REFORMD outperformed other MTPP models by up to 20% and 23% respectively 結果だ 米国と日本の8つのモビリティデータセットを対象に評価を行い,(1)位置情報推薦とイベントタイム予測のために,他のmtppモデルと比較して20%,23%の精度で改善した。 0.68
(2) It also demonstrated better and faster convergence on target dataset than other approaches, and (3) even in the absence of spatial flows, we outperform other methods by 3% for item recommendation and 14% for time prediction across four datasets from Amazon. 2) 対象とするデータセットのコンバージェンスが他のアプローチよりも良好かつ高速であること,(3) 空間的フローがなくても,amazon の4つのデータセットで他の手法を3%,時間予測を14%上回った。 0.71
Ongoing Work and Challenges. 仕事と挑戦を始める。 0.76
A crucial drawback of our proposed model is its standard transfer learning procedure, whereas, modern neural models deploy a meta-learning [5] procedure to transfer model parameters. 提案モデルの重要な欠点は,モデルパラメータを転送するメタラーニング[5]手順を,最新のニューラルモデルで展開するのに対し,標準的なトランスファー学習手順である。 0.80
Therefore as future work, we plan to combine meta-learning with NF to design robust MTPP models. そこで,我々はメタラーニングをNFと組み合わせて,堅牢なMTPPモデルを設計する計画である。 0.64
3.3 Latent Features The latent features that play a crucial role in CTES are inter-event and inter-sequence relationships. 3.3 潜時特徴 CTESで重要な役割を果たす潜時特徴は、イベント間およびシーケンス間関係である。 0.73
Farajtabar et al [4] show that these relationships imitate an information diffusion process e g social preferences, community formations etc. and can be captured using MTPP models. Farajtabar et al [4] は、これらの関係が情報拡散過程を模倣していることを示している。
訳抜け防止モード: Farajtabar et al [ 4 ] は、これらの関係が情報拡散過程、例えば社会的嗜好を模倣していることを示している。 MTPPモデルを用いたコミュニティ形成などが可能。
0.72
Accordingly, we address the problem of community detection in the absence of the social network of a user. そこで本稿では,ユーザのソーシャルネットワークが存在しない場合のコミュニティ検出の問題に対処する。 0.87
Specifically, we assign communities to users in a network based on their mobility preferences. 具体的には、モビリティの好みに基づいて、ネットワーク内のユーザにコミュニティを割り当てます。 0.65
Proposed Solution. In our work [9] with Ankita, a former Ph.D. student, we devise a spatial-temporal point process method to learn the diffusion process to assign communities to users in the network. 解決策の提案。 本研究では,元博士課程生の安田と共に,拡散過程を学習し,コミュニティをネットワークの利用者に割り当てるための空間的時間的プロセス法を考案した。 0.54
In detail, we train a self-exciting MTPP for each user with a common excitation matrix. 詳細は、各ユーザに対して共通の励起行列で自己励磁MTPPを訓練する。 0.65
Later, we assign a community to a user based on their personal MTPP and the shared matrix. その後、コミュニティをユーザに対して、個人のmtppと共有マトリックスに基づいて割り当てる。 0.72
We learn the latent community of users and our model parameters using stochastic variational inference. 我々は確率的変分推論を用いて潜在ユーザのコミュニティとモデルパラメータを学習する。 0.73
Results and Challenges. The results across two spatial mobility datasets show that our model achieves improvements of up to 27% in location prediction and 8% for community prediction in comparison to other neural models. 結果と挑戦。 2つの空間モビリティデータセットをまたいだ結果から,本モデルは他のニューラルモデルと比較して,最大27%のロケーション予測と8%のコミュニティ予測が達成できることがわかった。 0.73
Though we use certain heuristics to estimate the user community, evaluating it in the absence of true labels is still an open problem. 特定のヒューリスティックスを使ってユーザコミュニティを見積もっていますが、真のラベルがない状態で評価することは、いまだに未解決の問題です。 0.56
4 ONGOING WORK Here we highlight the ongoing works that are under review. 4 OnGOING WORK ここでは、レビュー中の進行中の作業を強調します。 0.65
Time Series as Graphs. グラフとしての時系列。 0.66
In this work, we represent a time series as a graph with weighted temporal edges. 本研究では,時系列を重み付き時間辺を持つグラフとして表現する。 0.78
Later, we learn the dynamics of sequences using graph neural networks. その後,グラフニューラルネットワークを用いてシーケンスのダイナミクスを学ぶ。 0.81
Moreover, we overcome data scarcity using a meta-learning algorithm. さらに,メタ学習アルゴリズムを用いてデータの不足を克服する。 0.69
Retrieving CTES. Due to the disparate nature of CTES with events containing marks and if applicable, spatial features, the problem of sequences retrieval has been left undressed by the past literature. CTESを取得。 マークを含む事象を含むcteの異質な性質と、適用すれば空間的特徴から、過去の文献ではシーケンス検索の問題が未解決に残されている。 0.68
In this work, we propose a self-attention MTPP model for retrieving a similar sequence from a corpus, given a query sequence. 本研究では,問合せシーケンスが与えられたコーパスから類似したシーケンスを検索するための自己注意型MTPPモデルを提案する。 0.71
Time Series and Databases. 時系列とデータベース。 0.75
In [1] with Garima, a former Ph.D. student, we learn the embedding of entities in temporally evolving relational databases. [1] では、元博士課程の学生 garima と共に、時系列的に進化する関係データベースへのエンティティの埋め込みを学ぶ。
訳抜け防止モード: 元Ph.D.学生のガーリマと[1]で. 我々は、時間的に進化する関係データベースにエンティティの埋め込みを学ぶ。
0.64
5 CONCLUSION In this paper, we present the research directions, possible datarelated problems, and solutions for learning neural models on continuous time sequences. 5 ConCLUSION この論文では、連続した時系列でニューラルネットワークを学習するための研究の方向性、データ関連問題、および解決策について述べる。 0.63
In addition, we highlighted the ongoing works that are under review. さらに,現在検討中の作業についても強調した。 0.69
As possible progress till October, we plan to get better results for meta-learning-based training of MTPP and notifications for the papers under review. 10月までの可能な限りの進展として、MTPPのメタラーニングベースのトレーニングと、レビュー中の論文の通知のより良い結果を得る計画である。 0.57
英語(論文から抽出)日本語訳スコア
Learning Neural Models for Continuous-Time Sequences 連続時間系列のための学習ニューラルモデル 0.65
AI-ML Systems ’21, October 21–23, 2021, Bangalore, India. AI-ML Systems ’21, October 21–23, 2021, インドのバンガロール。 0.80
REFERENCES [1] Siddhant Arora, Vinayak Gupta, Garima Gaur, and Srikanta Bedathur. siddhant arora, vinayak gupta, garima gaur, srikanta bedathurを参照。 0.38
2021. BERT Meets Relational DB: Contextual Representations of Relational Databases. 2021. BERTはリレーショナルDBと出会う:リレーショナルデータベースのコンテキスト表現。 0.57
arXiv preprint arXiv:2104.14914 (2021). arxiv プレプリント arxiv:2104.14914 (2021) 0.45
[2] European Commission. [2]欧州委員会委員。 0.68
2018. 2018 Reform of EU Data Protection Rules. 2018. 2018年 - EUデータ保護規則改正。 0.58
Available At: https://ec.europa.eu /commission/sites/be ta-political/files/dataprotection-f actsheet-changes_en. pdf. 利用可能 https://ec.europa.eu /commission/sites/be ta-political/files/d ata protectionion-factsh eet-changes_en.pdf。 0.24
[3] Nan Du, Hanjun Dai, Rakshit Trivedi, Utkarsh Upadhyay, Manuel GomezRodriguez, and Le Song. [3]Nan Du、Hanjun Dai、Rakshit Trivedi、Utkarsh Upadhyay、Manuel GomezRodriguez、Le Song。 0.35
2016. Recurrent marked temporal point processes: Embedding event history to vector. 2016. Recurrent marked temporal point process: イベント履歴をベクトルに埋め込みます。 0.66
In KDD. [4] Mehrdad Farajtabar, Yichen Wang, Manuel Gomez Rodriguez, Shuang Li, Hongyuan Zha, and Le Song. KDD所属。 [4]Mehrdad Farajtabar, Yichen Wang, Manuel Gomez Rodriguez, Shuang Li, Hongyuan Zha, Le Song
訳抜け防止モード: KDD所属。 [4 ]Mehrdad Farajtabar, Yichen Wang, Manuel Gomez Rodriguez, 韓国では、Shuang Li 、Hongyuan Zha 、Le Song がある。
0.70
2015. COEVOLVE: A Joint Point Process Model for Information Diffusion and Network Co-evolution. 2015. COEVOLVE:情報拡散とネットワーク共進化のための統合ポイントプロセスモデル。 0.62
In NeurIPS. NeurIPSに登場。 0.80
[5] Chelsea Finn, Pieter Abbeel, and Sergey Levine. 5]チェルシー・フィン、ピエター・アブベエル、セルゲイ・レヴァイン。 0.39
2017. Model-agnostic meta- 2017. モデル診断メタ- 0.51
learning for fast adaptation of deep networks. ディープ・ネットワークの 迅速な適応を学べます 0.72
In ICML. [6] Vinayak Gupta and Srikanta Bedathur. ICML。 6]ヴィナヤク・グプタとスリカンタ・ベダトゥール 0.31
2021. Region Invariant Normalizing 2021. 領域不変正規化 0.39
Flows for Mobility Transfer. 移動移動のための流れ。 0.62
arXiv preprint arXiv:2109.05738 (2021). arxiv プレプリント arxiv:2109.05738 (2021) 0.47
[7] Vinayak Gupta, Srikanta Bedathur, Sourangshu Bhattacharya, and Abir De. [7]Vinayak Gupta,Srikanta Bedathur,Sourangshu Bhattacharya,Abir De 0.28
2021. Learning Temporal Point Processes with Intermittent Observations. 2021. 間欠観察による時間点過程の学習 0.58
In AISTATS. AISTATS所属。 0.60
[8] Alan G Hawkes. 8]アラン・g・ホークス 0.46
1971. Spectra of some self-exciting and mutually exciting point 1971. 自励的かつ相互にエキサイティングな点のスペクトル 0.56
processes. In Biometrika. プロセス。 バイオメトリカ出身。 0.56
[9] Ankita Likhyani, Vinayak Gupta, PK Srijith, P Deepak, and Srikanta Bedathur. 9] Ankita Likhyani, Vinayak Gupta, PK Srijith, P Deepak, Srikanta Bedathur. 0.36
2020. Modeling Implicit Communities from Geo-tagged Event Traces using Spatio-Temporal Point Processes. 2020. 時空間過程を用いたジオタグ付きイベントトレースからの暗黙のコミュニティのモデリング 0.49
In WISE. [10] Sonam Maurya, Vinayak Gupta, and Vinod Kumar Jain. WISE。 [10]ソナム・マウリヤ、ヴィナヤク・グプタ、ヴィノド・クマール・ジャイナ。 0.32
2017. LBRR: Load Balanced Ring Routing Protocol for Heterogeneous Sensor Networks with Sink Mobility. 2017. lbrr: シンクモビリティを備えた異種センサネットワークのためのロードバランスリングルーティングプロトコル。 0.55
In WCNC. [11] Danilo Rezende and Shakir Mohamed. WCNC所属。 11]Danilo RezendeとShakir Mohamed。 0.63
2015. Variational inference with normal- 2015. 正規化による変分推論 0.50
izing flows. In ICML. フローを定めます。 ICML。 0.35
[12] Marian-Andrei Rizoiu, Swapnil Mishra, Quyu Kong, Mark Carman, and Lexing Xie. [12]マリアン・アンドレイ・リゾイ、スワプニル・ミシュラ、クユコング、マーク・カーマン、レキシン・シー。 0.55
2018. SIR-Hawkes: on the Relationship Between Epidemic Models and Hawkes Point Processes. 2018. SIR-Hawkes: エピデミックモデルとホークスポイントプロセスの関係について 0.58
In WWW. [13] Oleksandr Shchur, Marin Biloš, and Stephan Günnemann. WWW所属。 13]Olecsandr Shchur,Marin Biloš,Stephan Günnemann。 0.47
2020. Intensity-Free 2020. 強度フリー 0.51
Learning of Temporal Point Processes. 時間的ポイントプロセスの学習。 0.82
In ICLR. [14] Qianru Sun, Yaoyao Liu, Tat-Seng Chua, and Bernt Schiele. iclrで [14]Qianru Sun、Yaoyao Liu、Tat-Seng Chua、Bernt Schiele。 0.32
2019. Meta-Transfer 2019. メタトランスファー 0.51
Learning for Few-Shot Learning. 少人数学習のための学習。 0.52
In CVPR. [15] Daniela Tulone and Samuel Madden. cvpr所属。 15] ダニエラ・トゥーロンとサミュエル・マデン 0.50
2006. PAQ: Time series forecasting for 2006. PAQ:時系列予測 0.38
approximate query answering in sensor networks. センサーネットワークにおける 近似クエリ応答 0.78
In EWSN. [16] Manasi Vartak, Arvind Thiagarajan, Conrado Miranda, Jeshua Bratman, and Hugo Larochelle. 略称はEWSN。 Manasi Vartak氏、Arvind Thiagarajan氏、Conrado Miranda氏、Jeshua Bratman氏、Hugo Larochelle氏。 0.37
2017. A Meta-Learning Perspective on Cold-Start Recommendations for Items. 2017. アイテムのコールドスタートレコメンデーションに関するメタラーニング視点。 0.40
In NeurIPS. NeurIPSに登場。 0.80
[17] Huaxiu Yao, Yiding Liu, Ying Wei, Xianfeng Tang, and Zhenhui Li. [17]Huaxiu Yao,Yiding Liu,Ying Wei,Xianfeng Tang,Zhenhui Li 0.33
2019. Learning from Multiple Cities: A Meta-Learning Approach for Spatial-Temporal Prediction. 2019. 複数の都市から学ぶ:空間時間予測のためのメタラーニングアプローチ 0.57
In WWW. [18] Jason Yosinski, Jeff Clune, Yoshua Bengio, and Hod Lipson. WWW所属。 Jason Yosinski氏、Jeff Clune氏、Yoshua Bengio氏、Hod Lipson氏。 0.66
2014. How Transfer- 2014. 転送の仕方 0.52
able Are Features in Deep Neural Networks? ディープニューラルネットワークで機能を実現するか? 0.70
. In NeurIPS. . NeurIPSに登場。 0.61
[19] Simiao Zuo, Haoming Jiang, Zichong Li, Tuo Zhao, and Hongyuan Zha. [19]Simiao Zuo、Haoming Jiang、Zichong Li、Tuo Zhao、Hongyuan Zha。 0.32
2020. Transformer Hawkes Process. 2020. トランスフォーマーホークスプロセス。 0.52
In ICML. ICML。 0.28
       ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。