論文の概要、ライセンス

# (参考訳) 時間適応ガウスモデル [全文訳有]

Time Adaptive Gaussian Model ( http://arxiv.org/abs/2102.01238v1 )

ライセンス: CC BY 4.0
Federico Cieca, Veronica Tozzo(参考訳) 多変量時系列分析は、データ分析パイプラインの不可欠な部分になりつつある。 コ変数間の個々のタイムポイント接続と、これらの接続が時間内でどのように変化するかを理解することは簡単ではない。 そこで本研究では,隠れマルコフモデルとガウスグラフィックモデル-時間適応ガウスモデル(TAGM)を活用した新しい手法を提案する。 本モデルは時間的グラフィカルモデルの推論のための最先端手法の一般化であり,その定式化は,現在の手法よりも優れた結果を提供するモデルの両側面を活用している。 特に、時間内にデータポイントをクラスタリングすることでパターン認識を行い、観察された変数間の確率的(そしておそらく因果関係)の関係を見出す。 時間的ネットワーク推論の現在の方法と比較して、良い推論性能を示しながら基本的な仮定を減らします。

Multivariate time series analysis is becoming an integral part of data analysis pipelines. Understanding the individual time point connections between covariates as well as how these connections change in time is non-trivial. To this aim, we propose a novel method that leverages on Hidden Markov Models and Gaussian Graphical Models -- Time Adaptive Gaussian Model (TAGM). Our model is a generalization of state-of-the-art methods for the inference of temporal graphical models, its formulation leverages on both aspects of these models providing better results than current methods. In particular,it performs pattern recognition by clustering data points in time; and, it finds probabilistic (and possibly causal) relationships among the observed variables. Compared to current methods for temporal network inference, it reduces the basic assumptions while still showing good inference performances.
公開日: Tue, 2 Feb 2021 00:28:14 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 b e F 3 1 2 0 2 b e F 3 0.85
] L M . t a t s [ ]L M . t a t s [ 0.84
2 v 8 3 2 1 0 2 v 8 3 2 1 0 0.85
. 2 0 1 2 : v i X r a . 2 0 1 2 : v i X r a 0.85
Time Adaptive Gaussian Model Federico Ciech1,∗ and Veronica Tozzo2,3,∗ 時間適応ガウスモデルFederico Ciech1,∗とVeronica Tozzo2,3,∗ 0.82
1 Department of Bioengineering, Robotics, Informatics and System Engineering, 第1部 生物工学・ロボティクス・情報工学・システム工学科 0.79
Università degli Studi di Genova ジェノヴァ大学(Università degli Studi di Genova) 0.61
2 Center for System Biology and Department of Pathology, Massachusetts General 2 マサチューセッツ・ジェネラル・システム生物学・病理学研究センター 0.71
3 Department of Systems Biology, Harvard Medical School ハーバード大学医学部システム生物学科第3科 0.76
∗ These authors equally contributed to this paper. これらの著者は同等にこの論文に貢献した。 0.61
Hospital Abstract Multivariate time series analysis is becoming an integral part of data analysis pipelines. 病院 概要 多変量時系列分析は、データ分析パイプラインの不可欠な部分になりつつある。 0.63
Understanding the individual time point connections between covariates as well as how these connections change in time is non-trivial. コ変数間の個々のタイムポイント接続と、これらの接続が時間内でどのように変化するかを理解することは簡単ではない。
訳抜け防止モード: 共変量間の個々の時間点接続の理解と、これらの接続が時間的にどのように変化するか 非自明です。
0.59
To this aim, we propose a novel method that leverages on Hidden Markov Models and Gaussian Graphical Models — Time Adaptive Gaussian Model (TAGM). そこで本研究では,隠れマルコフモデルとガウスグラフィックモデルを活用する新しい手法 – Time Adaptive Gaussian Model (TAGM) を提案する。 0.84
Our model is a generalization of state-of-the-art methods for the inference of temporal graphical models, its formulation leverages on both aspects of these models providing better results than current methods. 本モデルは時間的グラフィカルモデルの推論のための最先端手法の一般化であり,その定式化は,現在の手法よりも優れた結果を提供するモデルの両側面を活用している。 0.71
In particular,it performs pattern recognition by clustering data points in time; and, it finds probabilistic (and possibly causal) relationships among the observed variables. 特に、時間内にデータポイントをクラスタリングすることでパターン認識を行い、観察された変数間の確率的(そしておそらく因果関係)の関係を見出す。 0.83
Compared to current methods for temporal network inference, it reduces the basic assumptions while still showing good inference performances. 時間的ネットワーク推論の現在の方法と比較して、良い推論性能を示しながら基本的な仮定を減らします。 0.69
Introduction 1 The inference of temporal networks has started to become a common topic in the last few years [10, 6, 12, 13, 14, 4, 23, 24]. はじめに 1 時間的ネットワークの推論は,ここ数年で一般的な話題(10,6,12,12,13,14,4, 23,24)になってきた。 0.64
Current method approach the problem by taking a multi-variate time series and dividing it in chunks [8, 13, 24]. 現在の手法は,多変量時系列をチャンク[8, 13, 24]に分割することでこの問題にアプローチする。 0.83
Each chunk is assumed to be a short enough period of time that all its points are identically and independently sampled from a unique distribution. 各チャンクは、すべての点が一意分布から同一かつ独立にサンプリングされるような、十分な期間の短いと仮定される。 0.81
Such distribution, when the variables are continuous, can be represented as a Gaussian Graphical Model (GGM), where the conditional independency patterns of variables are encoded as edges of graphs that evolve in time. このような分布は、変数が連続である場合、ガウスグラフモデル(GGM)として表され、変数の条件付き独立パターンは、時間とともに進化するグラフのエッジとして符号化される。 0.81
These approaches show good performances, but the assumption that the time points in each chunk are i.i.d. これらのアプローチは優れたパフォーマンスを示すが、各チャンクのタイムポイントがi.i.dであると仮定する。 0.59
is most often is not true. 多くの場合 真実ではありません 0.65
In this paper, we propose Time Adaptive Gaussian Model (TAGM), a combination of GGMs with Hidden Markov Models (HHMs) [1] that allows to easily consider the sequence of single time points and relax the chunk assumption. 本稿では,GGMと隠れマルコフモデル(HHM)の組合せであるTAGM(Time Adaptive Gaussian Model)を提案する。
訳抜け防止モード: 本稿では,時間適応ガウスモデル(TAGM)を提案する。 GGMと隠れマルコフモデルの組み合わせ(HHMs ) [ 1 ] 単一の時間点の順序を容易に考慮し、チャンクの仮定を緩めることができる。
0.79
1 1 0.85
英語(論文から抽出)日本語訳スコア
Figure 1: TAGM schematic representation. 図1: TAGM のスキーマ表現。 0.75
To each temporal observation is associated a state. 各時間観測に、状態が関連付けられる。 0.80
Each state is characterized by an underlying distribution which is represented by a graphical model. 各状態はグラフィカルモデルで表される基礎的な分布によって特徴づけられる。 0.79
It also allows us to obtain clusters of time points as well as repeated evolving patterns of graphs that may be impossible to obtain with current state-of-the-art methods. また、現在の最先端の手法では取得できないかもしれないグラフの繰り返し進化パターンだけでなく、時間点のクラスタも取得できる。 0.67
A schematic representation of the model is presented in Figure 1. モデルの図式表現は図1に示されます。 0.71
Here, we are considering an HMM at 2 states, which by looking at the left panel, presents as the sequence 1, 2, 2, 1. ここでは、2つの状態のHMMを検討しており、左のパネルを見ると、シーケンス 1, 2, 2, 1 として表される。 0.78
Given the latent states, observations x1 and x4 belong to an underlying distribution while x2 and x3 belong to another one. 潜在状態を考えると、x1 と x4 は基底分布に属し、x2 と x3 は別の分布に属する。 0.76
Given the Markov chain that connects the latent state we can assume that all these observations are independent and, thus, use them to infer two GGMs that models the probability distribution of cluster 1 and cluster 2 (right panel Figure 1). 潜在状態に接続するマルコフ連鎖を考えると、これらの観測はすべて独立であると仮定し、クラスタ1とクラスタ2の確率分布をモデル化する2つのggm(右パネル図1)を推定する。 0.79
The inferred GGMs provide us more information on how, within each latent state, the variables are dependent to each other. 推論されたGGMは、各潜伏状態において、変数が相互に依存する方法について、より詳細な情報を提供します。 0.48
Our approach, given a multi-variate time-series, is able to 私たちのアプローチは、多変量時系列を考えると、 0.58
1. cluster temporal data points considering sequentiality. 1.連続性を考慮したクラスタ時間データポイント。 0.63
Note that, TAGM does not intend to group time series based on their morphology. なお、TAGMは、その形態に基づいて時系列をグループ化するつもりはない。 0.60
Rather, it clusters the observations within the time series based on their similarities and the order they appear. むしろ、その類似点とそれらが現れる順序に基づいて、時系列内で観測を集約する。 0.78
Such approach, in literature, is either formulated as a standard clustering problem on the time points or as a longitudinal clustering on the time-series [19, 7, 21]. このようなアプローチは、文献において、タイムポイントの標準クラスタリング問題または時系列[19, 7, 21]の縦クラスタリングとして定式化されている。 0.81
2. Infer temporal-dependent conditional dependencies among variables: TAGM relaxed the chunk assumption common to the inference methods available in literature [13, 24] thus inferring a time-varying network that adapts at each observation. 2. 変数間の時間依存性条件依存を推論する: TAGMは文献 [13, 24] で利用可能な推論方法に共通するチャンク仮定を緩和し、各観測に適応する時間変動ネットワークを推論する。 0.80
Note that TAGM assumes a sequentiality of the states, while in [18, 7] the authors combined GGMs with Gaussian Mixture Models. TAGMは状態のシーケンシャル性を想定しているが、[18, 7]では著者はGGMとガウス混合モデルを組み合わせている。 0.72
This approach is more prone in clustering the points in classes which can be seen as an unsupervised extension of the Joint Graphical Lasso [6]. このアプローチは、Joint Graphical Lasso [6]の教師なし拡張と見なされるクラス内のポイントをクラスタリングする際の傾向が強い。
訳抜け防止モード: このアプローチは、クラス内のポイントをクラスタリングする際の傾向が強い Joint Graphical Lasso [6 ] の教師なし拡張と見なすことができる。
0.81
We show on synthetic data that the model performs better than current state-of-the-art methods on both tasks (1) and (2). 合成データでは,(1)と(2)の両方において,現在の最先端手法よりも優れた性能を示す。 0.71
We argue that the general 私たちは将軍を論じる 0.69
2 2 0.85
英語(論文から抽出)日本語訳スコア
characteristics of TAGM make it a trustful model that may be applied in a variety of applicative domains. TAGMの特徴は、それをさまざまな応用領域に適用できる信頼できるモデルにします。 0.63
Related work For time series clustering, to our knowledge, HMM [1] is the only clustering method which considers also sequentiality, as state-of-the-art methods typically cluster points based on the feature differences [19, 7, 21]. 関連する作業 時系列クラスタリングについては、私たちの知る限り、HMM [1] は、特徴の違い [19, 7, 21] に基づいて、通常、最新の方法として、シーケンシャル性も考慮する唯一のクラスタリング方法です。 0.68
The inference of time-varying network has being tackled recently in literature [8, 13, 24] by dividing the time-series in chunks with the strong assumption that all the time points within a chunk are i.i.d. 近年の文献 [8, 13, 24] では、時系列をチャンクに分割し、チャンク内のすべての時間点が i.i.d であると強く仮定することで、時間分散ネットワークの推論が取り組まれている。 0.62
TAGM overcomes this assumption proposing a more elegant way of inferring evolving networks as well as their pattern of evolution. TAGMはこの仮定を克服し、進化するネットワークと進化のパターンを推論するよりエレガントな方法を提案する。 0.70
By inferring K different graphs we reach a deeper level of understanding on the states that allows us to gain insights on the system under analysis [14]. K の異なるグラフを推定することで、分析対象のシステムに関する洞察を得ることが可能な状態のより深い理解レベルに達します [14]。 0.81
Lastly, state-of-the-art prediction methods on time-series [22, 15, 17, 25] commonly assume the relations among the past values of the variables and the present values of each variable to be constant in time. 最後に、時系列[22, 15, 17, 25]上の最先端予測手法は、変数の過去の値と各変数の現在値の関係を時間内に一定とみなすのが一般的である。 0.82
An idea similar to TAGM was proposed with Gaussian Mixture Models (GMMs) [7] where they combined GMM with GGMs [18]. TAGMに類似したアイデアはGaussian Mixture Models (GMMs) [7]で提案され、GMMとGGMを組み合わせた [18]。 0.78
The use of GMMs though would not allow to explicitly consider sequentiality and it is therefore not suited for the analysis of time-series. しかし、GMMの使用はシーケンシャル性を明示的に考慮することはできず、したがって時系列の分析には適さない。 0.71
In literature, we found two examples that explicitly consider non-stationarity and sequentiality in a setting similar to ours. 文献では,非定常性と逐次性を考慮した2つの例を見出した。 0.65
2 Preliminaries Consider a complex non-stationary system where, with non-stationarity, we intend a change in time of the underlying distribution of observations. 2プリリミナリは、非定常で、観測の基盤となる分布の時間変化を意図する複雑な非定常系を考える。 0.69
Of this system we observe N temporal observations, each of these observation n = 1, . この系では、これらの観測n = 1 のそれぞれである N 時間観測を観測する。 0.80
. . , N is a vector xn ∈ Rd of d variables sampled from an unknown distribution. . . , N は未知分布からサンプリングされた d 変数のベクトル xn ∈ Rd である。 0.87
In the following we will denote vectors with bold letters x, matrices with capital letters X and sequences of vectors or matrices with bold capital letters X. 次の例では、大文字 x のベクトル、大文字 X の行列、大文字 X のベクトルまたは行列の列を示します。 0.65
with a hidden (latent) state zn =(cid:80)K 隠された(遅延)状態 zn =(cid:80)K で 0.77
2.1 Hidden Markov Model HMMs are statistical models widely applied sequential data structures. 2.1 隠れマルコフモデル HMM は、シーケンシャルデータ構造を広く適用した統計モデルである。 0.67
HMMs assume that the series of observations is generated by a given number K of (hidden) internal states which follow a Markov process (see left panel of Figure 1) [1]. HMMは一連の観測がマルコフ過程に従う(隠れた)内部状態の与えられた数Kによって生成されると仮定している(図1の左パネル参照)[1]。 0.82
Consider the N sequential (temporal) observations, we pair each of them 1{i=k}ei, where ei is the K-dimensional natural basis which has a non-zero component only at position i and k is the cluster label of observation n. We use the notation zn,k to indicate the k-th positional value of the vector zn. N のシーケンシャル(時間的)観測を考えると、それらのそれぞれを 1{i=k}ei と対にすると、ei は K 次元自然基底であり、これは位置 i でのみ 0 でない成分を持ち、k は観測 n のクラスタラベルである。
訳抜け防止モード: Nシーケンシャル(テンポラル)観察を考えてみましょう。 それらのそれぞれを 1{i = k}ei と対とし、ここで ei は位置 i と k にのみ非ゼロ成分を持つ K-次元自然基底であり、観測 n のクラスタラベルである。 k はベクトル zn の k - th の位置値を示す。
0.86
Through their hidden states, the observations xn and xn+1 become independent given their states (see Figure 1 left panel). 隠れた状態を通して、観測 xn と xn+1 は状態から独立となる(図1左パネル参照)。 0.78
The hidden states, on the other hand, follow a Markov chain process which satisfies the conditional independence property zn+1 ⊥⊥ zn−1|zn. 一方、隠れた状態は条件付き独立性 zn+1 である zn−1|zn を満たすマルコフ連鎖過程に従う。 0.78
i=1 3 i=1 3 0.72
英語(論文から抽出)日本語訳スコア
The HMM joint distribution on both the observations X = (x1, x2, . 両観測値のHMM関節分布はX = (x1, x2, )。 0.86
. . , xN ) and the latent variables of Z = (z1, z2, . . . , xN ) と Z = (z1, z2, .) の潜在変数。 0.86
. . , zN ) is then given by . . , zN ) が与えられる。 0.80
(cid:104) N(cid:89) (cid:104) N(cid:89) 0.78
(cid:105) N(cid:89) (cid:105) N(cid:89) 0.78
n=1 p(X, Z|π, A, φ) = p(z1|π) n=1 p(X, Z|π, A, φ) = p(z1|π) 0.74
p(zn|zn−1, A) p(zn|zn−1, A) 0.75
p(xn|zn, φ). p(xn|zn, φ)。 0.89
(1) k=1 πz1,k (1) k=1 πz1,k 0.75
k n=2 with (cid:80) The probability p(z1|π) = (cid:81)K (cid:81)K The probability p(zn|zn−1,A) =(cid:81)K 1|zn−1,j = 1) with 0 ≤ Aj,k ≤ 1 and(cid:80) Lastly, p(xn|zn, φ) =(cid:81)K k n=2 with (cid:80) the probability p(z1|π) = (cid:81)K (cid:81)K 確率 p(zn|zn−1,A) =(cid:81)K 1|zn−1,j = 1) with 0 ≤ Aj,k ≤ 1 and(cid:80) 最後に、p(xn|zn, φ) =(cid:81)K 0.76
k πk = 1 is the initial latent node z1 probability, which differs from the other states as there is no parent node. k πk = 1 は初期潜在ノード z1 確率であり、親ノードが存在しないため他の状態とは異なる。 0.84
Thus, its marginal distribution is embodied by a vector of probabilities π whose elements πk ≡ p(z1,k = 1) represents the probability of the first observation to belong to the k-th state. したがって、その辺分布は π の確率ベクトルによって具現化され、その元 πk > p(z1,k = 1) は k 番目の状態に属する最初の観測の確率を表す。 0.77
is the transition probability of moving from one state to the other where A ∈ [0, 1]K×K is the transition matrix that we assume to be constant in time.It is defined as Aj,k = p(zn,k = k=1 p(xn|φk)zn,k, are the emission probabilities where φ = {φ1, . a ∈ [0, 1]k×k が時間内に定数と仮定される遷移行列であるとき、ある状態から他方へ移動する遷移確率は aj,k = p(zn,k = k=1 p(xn|φk)zn,k と定義される。
訳抜け防止モード: ある状態から別の状態へ移動する遷移確率です a ∈ [ 0, 1]k×k は、時間の定数と仮定する遷移行列である。 aj, k = p(zn, k = k=1 p(xn|φk)zn, k と定義される。 放出確率は φ = { φ1 , . である。
0.83
. . , φK} is a set of K different parameters governing the distributions, one for each of the possible K states. . . φK} は分布を管理する K の異なるパラメータの集合であり、K 状態のそれぞれに対して 1 つである。 0.83
j=1 Azn−1,j zn,k j=1 Azn−1,j zn,k 0.78
k Aj,k = 1. k Aj,k = 1。 0.78
k=1 j,k 2.2 Gaussian Graphical Models GGMs are typically employed in the analysis of multivariate problems where one seeks to understand the relationships among variables. k=1 j,k 2.2 ガウス図形モデル GGM は通常、変数間の関係を理解しようとする多変量問題の解析に使用される。 0.76
A GGM is a probability distribution which factorizes according to an undirected graph whose set of edges univocally determines a multivariate normal distribution N (µ, Σ). GGM は、エッジの集合が一元的に多変量正規分布 N (μ, Σ) を決定する無向グラフに従って分解する確率分布である。 0.89
Indeed, the precision matrix, Θ = Σ−1 encodes the conditional independence between pairs of variables, and Θ(i, j) = 0 implies the absence of an edge in the graph. 実際、精度行列 θ = σ−1 は変数対の条件付き独立性を符号化し、θ(i, j) = 0 はグラフの辺が存在しないことを意味する。 0.78
Thus, Θ is the weighted adjacency matrix of the graph (see right panel Figure 1) [16]. したがって、θ はグラフの重み付き隣接行列である(右パネル図 1) [16]。 0.65
Given M observations of d variables X ∈ RM×d we aim at inferring the underlying graph corresponding to the precision matrix Θ. d 変数 X ∈ RM×d の M 個の観測を前提とすると、基礎となるグラフは精度行列 (scision matrix) に対応する。
訳抜け防止モード: d 変数 X ∈ RM×d の M 観測について 精度行列 (precision matrix) に対応する基礎となるグラフを推論する。
0.80
In order to perform such inference we need to assume that the underlying graph is sparse. そのような推論を行うには、基礎となるグラフがスパースであると仮定する必要がある。 0.57
This is due to the combinatorial nature of the problem that requires to be constrained to have identifiability guarantees [9]. これは、識別可能性を保証するために制約される必要がある問題の組合せの性質 [9] に起因する。 0.75
The most common way of inferring such graph is through the Graphical Lasso (GL) [9], a penalized Maximum Likelihood Estimation (MLE) method that solves the following problem tr(ΘS) − log det(Θ) + λ(cid:107)Θ(cid:107)1,od そのようなグラフを推測する最も一般的な方法は、以下の問題 tr(θs) − log det(θ) + λ(cid:107)θ(cid:107)1,od を解くペナルティ化最大度推定 (mle) 法であるグラフィカルラッソ (gl) [9] である。 0.87
argmin (2) Θ(cid:31)0 アルグミン (2) θ(cid:31)0 0.67
where S is the empirical covariance matrix of the input data defined as S = n X(cid:62)X, tr(ΘS) − log det(Θ) is the negative log likelihood of the multivariate 1 normal distribution and (cid:107)·(cid:107)1,dot is the off-diagonal (cid:96)1-norm that imposes sparsity on the precision matrix Θ without considering the diagonal elements. s が入力データの経験的共分散行列であるとき、s = n x(cid:62)x, tr(θs) − log det(θ) は多変量 1 正規分布の負の対数確率であり (cid:107)·(cid:107)1, dot は対角要素を考慮せずに精度行列 θ にスパーシティを課すオフ対角行列 (cid:96)1-ノルムである。 0.79
4 4 0.85
英語(論文から抽出)日本語訳スコア
3 Time Adaptive Gaussian Model TAGM presents an elegant way of inferring evolving networks as well as their pattern of evolution. 3 Time Adaptive Gaussian Model TAGMは、進化するネットワークとその進化パターンを推論するエレガントな方法を提示します。 0.87
Consider the system presented in previous section, we have N temporal observations that are connected through K latent states. 前節で示したシステムを考えると、K潜伏状態を介して接続されるN時間観測があります。 0.77
Each of this state is connected to an unknown distribution that we want to model as a graphical model. この状態はそれぞれ、グラフィカルモデルとしてモデル化したい未知の分布に接続されています。 0.80
By inferring K different graphs we reach a deeper level of understanding on the intra-dependency patterns of the states that allows us to gain insights on the system under analysis [14]. K個の異なるグラフを推定することで、状態の依存性内パターンをより深く理解し、分析対象のシステムに関する洞察を得ることができます [14]。 0.73
TAGM is a combination of HHMs with GGMs, which can be straightforwardly derived by assuming that all the observations belonging to a cluster k are i.i.d. TAGM は HHMs と GGMs の組み合わせであり、クラスター k に属する全ての観測が i.d であると仮定することで直接的に導出することができる。 0.81
and multivariate normally distributed. Thus, we assume that the emission probabilities are 通常多変量分布です したがって、排出確率は推定されます。 0.63
p(xn|zn, φ) = p(xn|zn, φ) = 0.94
N (xn|µk, Θ−1 N(xn|μk, s−1) 0.57
k )zn,k K(cid:89) k)zn,k K(cid:89) 0.83
k=1 in such a way to have an explicit correspondence between the distribution of each state of the HMM and a graph, modeled through the precision matrix Θ. k=1 このように、hmmの各状態の分布とグラフの間の明示的な対応は、精度行列 θ によってモデル化される。 0.65
Thus, the parameters φ are equal to the sequences µ = (µ1, . したがって、パラメータ φ は μ = (μ1, ) の列に等しい。 0.76
. . , µK) and Θ = (Θ1, . . . , μK) と s = (1, 。 0.81
. . , ΘK). . . θk) である。 0.75
In order to obtain the Graphical Lasso form we add a sparsity constraint by multiplying the joint probability distribution in Equation (1) with a Laplacian prior on the precision matrix. グラフィカル・ラッソの形式を得るためには、方程式(1)のジョイント確率分布を精度行列に先行してラプラシアンに乗じることで、スパーシティ制約を加える。 0.74
The Laplacian prior would also provide more interpretable results as we keep only the strongest edges of the final graphs. ラプラシアン事前は、最終グラフの最も強い辺のみを保持するため、より解釈可能な結果を提供する。 0.67
The posterior is defined as 後部は次のように定義される 0.54
p(π, A, µ, Θ|X, Z) ∝p(z1|π) p(π, A, μ, ^|X, Z) ^p(z1|π) 0.89
p(zn|zn−1, A) p(zn|zn−1, A) 0.75
(cid:104) N(cid:89) K(cid:89) (cid:104) N(cid:89) K(cid:89) 0.78
n=2 N(cid:89) n=2 N(cid:89) 0.71
(cid:105) N (xn|µk, Θ−1 (cid:105) N(xn|μk, s−1) 0.67
k )zn,k e− λ k )zn,k e− λ 0.96
2 ||Θk||1,od . 2 ||k||1,od。 0.56
n=1 k=1 approach. n=1 k=1 近づいた 0.51
To marginalize over the latent variables p(X|θ) =(cid:80) 潜伏変数 p(X|θ) =(cid:80) を極小化すること 0.62
where with the notation zn and zn−1 we hid a product on zn,k and zn−1,j for k, j = 1, . 表記 zn と zn−1 で、z = 1 に対して zn,k と zn−1,j 上の積を隠した。 0.81
. . , K. In order to fit such distribution on data we need to detect the best set of parameters θ = {π, A, µ, Θ} through a Maximum A Posteriori Z p(X, Z|θ) we employ the expectation maximization (EM) algorithm, in its particular version known as Baum’s algorithm [2]. . . このような分布をデータに当てはめるためには、最大A Posteriori Z p(X, Z| )を介してパラメータのベストセットを検出する必要があります。このアルゴリズムは、Baumのアルゴリズムとして知られる特定のバージョンで、期待最大化(EM)アルゴリズムを採用しています[2]。
訳抜け防止モード: . . このような分布をデータに合わせるためには、最適なパラメータセットを検出する必要があります。 最大A Posteriori Z p(X, X) によるA, μ, y } 期待最大化(EM)アルゴリズムを採用します。 Baumのアルゴリズム[2]として知られているその特定のバージョンで。
0.84
The expectation maximization (EM) algorithm [2] is an iterative algorithm which alternates two steps: the E-step and the M-step. 期待最大化(EM)アルゴリズム[2]は、EステップとMステップの2つのステップを交互に行う反復アルゴリズムである。 0.78
It starts with some initial selection for the model parameters, which we denote by θold. まず、モデルパラメータのいくつかの初期選択から始まり、θold と表記します。 0.74
Then from the posterior distribution over the latent variables p(X, Z|θold) it evaluates the expectation of the complete-data log-likelihood as a そして、潜伏変数 p(X, Z|θold) 上の後続分布から、完全データ対数様の予想を a として評価する。 0.67
5 5 0.85
英語(論文から抽出)日本語訳スコア
function of the parameters θ = {π, A, µ, Θ}: パラメータ π = {π, A, μ, s} の関数です。 0.70
Q(θ, θold) =γ(zn) ln(π) + Q(θ, θold) =γ(zn) ln(π) + 0.96
ξ(zn−1, zn) ln A+ シュ(zn−1, zn)lnA+ 0.83
N(cid:88) n=2 N(cid:88) n=2 0.71
N(cid:88) K(cid:88) N(cid:88) K(cid:88) 0.84
(cid:20) n=1 (cid:20) n=1 0.69
k=1 γ(zn,k) lnN (xn|µk, Θ−1 k=1 γ(zn,k) lnN(xn|μk, φ−1) 0.67
k ) − 1 2 (cid:21) k ) − 1 2 (cid:21) 0.82
λ||Θk||1,od λ||k||1,od 0.46
where γ(zn,k) and ξ(zn−1,j, zn,k) come from the definition γ(zn,k) と zn(zn−1,j,zn,k) が定義から来ているとき 0.92
γ(zn) = p(zn|X, θold) γ(zn) = p(zn|X, θold) 0.94
ξ(zn−1, zn) = p(zn−1, zn|X, θold). p(zn−1, zn) = p(zn−1, zn|X, θold)。 0.78
Denoting γ(zn,k) the conditional probability of zn,k = 1, with a similar use of notation for ξ(zn−1,j, zn,k). γ(zn,k) に zn,k = 1 の条件付き確率を記すと、同様の表記法が用いられる(zn−1,j,zn,k)。 0.82
Because the expectation of a binary random variable is just the probability that it takes the value 1, we have なぜなら、二進確率変数の期待は、それが値 1 を取る確率であるからである。 0.76
γ(zn,k) = E[zn,k] = γ(zn,k) = E[zn,k] = 0.85
ξ(zn−1,j, zn,k) = E[zn−1,jzn,k] = E(zn−1,j,zn,k) = E[zn−1,jzn,k] = 0.93
z γ(z)zn−1,kzn,k. z γ(z)zn−1,kzn,k。 0.90
(cid:88) γ(z)zn,k (cid:88) γ(z)zn,k 0.82
(cid:88) The goal of the E-step is to evaluate the quantities γ(zn) and ξ(zn−1, zn). (cid:88) e-step の目標は γ(zn) と γ(zn−1, zn) の量を評価することである。 0.78
While the M step maximizes Q(θ, θold) with respect to the parameters θ in which we treat γ(zn) and ξ(zn−1, zn) as constants. M ステップは Q(θ, θold) を γ(zn) と γ(zn−1, zn) を定数として扱うパラメータ θ に対して最大化する。 0.80
z 3.1 E step An efficient algorithm to evaluate the quantities γ(zn) and ξ(zn−1, zn) is the forward-backward algorithm described in [2]. z 3.1 E ステップ γ(zn) と γ(zn−1, zn) を評価する効率的なアルゴリズムは [2] で表される前向きのアルゴリズムである。 0.86
Here we want to emphasize the most relevant formulas which characterizes the algorithm. ここでは、アルゴリズムを特徴付ける最も関連する式を強調したい。 0.73
If the reader is interested in more details and how to derive them we refer to [3]. 読者が詳細とそれらを導出する方法に興味がある場合は、[3]を参照してください。 0.69
Using Bayes’ theorem, we have ベイズの定理を使って 0.53
p(X|zn)p(zn) p(X|zn)p(zn) 0.96
p(x1, . . . p(x1, 。 . . 0.87
, xn, zn)p(xn+1, . , xn, zn)p(xn+1, 。 0.92
. . , xN|zn) . . xN|zn) 0.85
γ(zn) = p(X) γ(zn) = p(X) 0.85
= p(X) α(zn)β(zn) = p(X) α(zn)β(zn) 0.85
= p(X) . (3) = p(X) . (3) 0.85
where we have defined α(zn) = p(x1, . 定義しました α(zn) = p(x1, )。 0.76
. . , xn, zn) β(zn) = p(xn+1, . . . , xn, zn) β(zn) = p(xn+1, 。 0.86
. . , xN|zn). . . xN|zn)。 0.84
α(zn) is also called forward process while β(zn) backward process. α(zn) は前処理、β(zn) は後処理とも呼ばれる。 0.82
It is possible to prove that by the conditional independence assumption zn+1 ⊥⊥ zn−1|zn the forward and backward processes are characterized by two recursive equations: (4) 条件付き独立性仮定 zn+1 から zn−1|zn により、前方および後方の過程は 2 つの再帰方程式によって特徴づけられる。 0.79
α(zn−1)p(zn|zn−1), α(zn−1)p(zn|zn−1), 0.78
α(zn) = p(xn|zn) α(zn) = p(xn|zn) 0.98
(cid:88) β(zn) = (cid:88) β(zn) = 0.82
zn−1 β(zn+1)p(xn+1|zn+1)p(zn+1|zn), zn−1 β(zn+1)p(xn+1|zn+1)p(zn+1|zn) 0.62
(5) (cid:88) (5) (cid:88) 0.82
zn+1 6 zn+1 6 0.72
英語(論文から抽出)日本語訳スコア
with the initial conditions: α(z1) = 最初の条件で α(z1) = 0.73
K(cid:89) {πkN (x1|µk, Θ−1 K(cid:89) πkN(x1|μk, y−1) 0.70
k )}z1,k k=1 k )}z1,k k=1 0.78
β(zN ) = (1, . β(zN) = (1, 。 0.76
. . , 1). If we sum both sides of (3) over zn, and use the fact that the left-hand side is a normalized distribution, we obtain . . , 1). zn 上の (3) の両側を和って、左辺が正規分布であるという事実を用いると、我々は得られる。 0.83
(cid:88) (cid:88) (cid:88) (cid:88) 0.78
p(X) = α(zn)β(zn) = p(X) = α(zn)β(zn) = 0.85
α(zN ). zn Using similar arguments we have α(zN)。 zn 同様の引数を使って 0.75
zN ξ(zn−1, zn) = zN シュ(zn−1, zn) = 0.85
α(zn−1)p(xn|zn)p(zn|zn−1)β(zn) α(zn−1)p(xn|zn)p(zn|zn−1)β(zn) 0.80
p(X) . For moderate lengths of chain the calculation of α(z) can go to zero exponentially quickly. p(X) . 連鎖の適度な長さの場合、α(z) の計算は指数関数的に早くゼロになる。 0.79
We therefore work with re-scaled versions of α(z) and β(z) whose values remain of order unity. したがって、α(z) と β(z) の再スケールバージョンで作業し、その値が一意に残る。 0.73
The corresponding scaling factors cancel out when we use there re-scaled quantities in the EM algorithm. 対応するスケーリング要因は、EMアルゴリズムで再スケールした量を使用するとキャンセルされる。 0.63
We define a normalised version of α(z) as ˆα(zn) = p(zn|x1, . α(z) の正規化バージョンを sα(zn) = p(zn|x1, ) と定義する。 0.79
. . , xn) = . . , xn) = 0.85
α(zn) p(x1, . α(zn) p(x1, 。 0.88
. . , xn) which we expect to be well behaved numerically because it is a probability distribution over K variables for any value of n. In order to relate to the original α(z) variables we introduce scaling factors . . 、xn) これは、n の任意の値に対する K 変数上の確率分布であるため、数値的にうまく振る舞うことを期待している。元の α(z) 変数に関連して、スケーリング係数を紹介する。 0.80
From the α and β recursive equations (4) and (5) its scaled formula ˆα(z) becomes α と β の再帰方程式 (4) と (5) から、そのスケールした公式は α(z) となる 0.82
and therefore p(x1, . よって p(x1, 。 0.78
. . , xn) = . . , xn) = 0.85
cn = p(xn|x1, . cn = p(xn|x1, 。 0.81
. . , xn−1) . . , xn−1) 0.83
n(cid:89) m=1 n(cid:89) m=1 0.71
cm. ˆα(zn) = cm。 ~α(zn) = 0.87
p(xn|zn)(cid:80) (cid:80) p(xn|zn)(cid:80) (cid:80) 0.76
zn+1 zn−1 ˆα(zn−1)p(zn|zn−1) cn zn+1 zn−1 α(zn−1)p(zn|zn−1) cn 0.63
and, similarly ˆβ(zn) = 同様に β(zn) = 0.64
ˆβ(zn+1)p(xn+1|zn+1)p(zn+1|zn) β(zn+1)p(xn+1|zn+1)p(zn+1|zn) 0.60
. Note that for the computation of βs we can recur to the scaling factors we computed in the α phase. . 注意すべき点は、β の計算は α 相で計算したスケーリング因子に再帰することができることである。 0.79
We can also notice that the probability distribution of X becomes また、X の確率分布が現れることにも気づく。 0.83
cn+1 N(cid:89) cn+1 N(cid:89) 0.71
n=1 7 p(X) = n=1 7 p(X) = 0.76
cn cn 0.85
英語(論文から抽出)日本語訳スコア
Analogously for A (cid:80)K Aとは? (cid:80)K 0.64
j=1 (cid:16)(cid:80)N (cid:80)N j=1 (cid:16)(cid:80)N (cid:80)N 0.69
∂ n=2 n=2 ξ(zn−1,j, zn,k) ∂ n=2 n=2(zn−1,j,zn,k) 0.79
Aj,k ∂Q(Aj,k) Aj,k ∂q(aj,k) 0.85
∂Aj,k = = j=1 πj = 1. ∂Aj,k = = j=1πj = 1。 0.84
Therefore πk = γ(z1,k) j=1 γ(z1,k) そのため πk = γ(z1,k) j=1 γ(z1,k) 0.85
(cid:80)K (cid:80)K k=1 ξ(zn−1,j, zn,k) ln Aj,k + λ(1 −(cid:80)K (cid:80)k (cid:80)k k=1 (zn−1,j, zn,k) ln aj,k + λ(1 −(cid:80)k 0.90
. (cid:17) . (cid:17) 0.82
k=1 Aj,k) ∂Aj,k k=1 Aj,k) ∂Aj,k 0.91
− λ = 0 and that − λ = 0 それと 0.78
γ(zn) = ˆα(zn) ˆβ(zn) γ(zn) = ^α(zn) ^β(zn) 0.94
ξ(zn−1, zn) = c−1 zn−1, zn) = c−1 0.91
n ˆα(zn)p(xn|zn)p(zn|zn−1) ˆβ(zn). p(xn|zn)p(zn|zn−1)/β(zn) である。 0.85
3.2 M step: Given γ(zn) and ξ(zn−1, zn) computed in the E step, the M step finds the optimal parameters θ. 3.2 M ステップ: E ステップで計算された γ(zn) と γ(zn−1, zn) が与えられたとき、M ステップは最適パラメータ θ を求める。 0.80
To maximize respect to π and A we keep the addends of Q(θ, θold) which are directly interested in, where we use the appropriate Lagrangian to take into account of the constraints. π と a について最大化するために、直接興味を持つ q(θ, θold) の補題を保持し、そこでは制約を考慮に入れるために適切なラグランジアンを用いる。 0.66
(cid:16)(cid:80)K k=1 γ(z1,k) ln(πk) + λ(1 −(cid:80)K (cid:16)(cid:80)K k=1 γ(z1,k) ln(πk) + λ(1 −(cid:80)K 0.87
k=1 πk) (cid:17) k=1 πk) (cid:17) 0.73
∂Q(πk) ∂ = ∂Q(πk) ∂ = 0.85
= γ(z1,k) πk = γ(z1,k) πk 0.87
− λ = 0 We multiply both sides by πk and summing over all k ∈ {1, . − λ = 0 両側をπk で乗算し、すべての k ∈ {1, .} を和する。 0.77
. . , K} and obtain . . , K} と取得 0.82
∂πk λ =(cid:80)K ππk λ =(cid:80)K 0.69
j=1 γ(z1,k) using that(cid:80)K j=1 γ(z1,k) using that(cid:80)k 0.86
∂πk Therefore Similarly as before we multiply both sides by Aj,l and summing over all l ∈ l=1 Aj,l = 1. ππk そのため 同様に、両辺を Aj,l で乗算し、すべての l ∈ l=1 Aj,l = 1 を和する。 0.68
(cid:80)N {1, . (cid:80)N {1, 。 0.88
. . , K} and obtain λ =(cid:80)K n=2 ξ(zn−1,j, zn,l) using that(cid:80)K (cid:80)N (cid:80)K (cid:80)N (cid:80)N (cid:80)N . . λ = (cid:80)k n=2 (zn−1,j, zn,l) を得る(cid:80)k (cid:80)k (cid:80)k (cid:80)n (cid:80)n (cid:80)n (cid:80)n) 0.83
When we differentiate by µk we have the same equation as in the Gaussian mixture model, therefore we give directly the result μk で微分すると、ガウス混合モデルと同じ方程式を持つので、直接の結果を与えることができる。
訳抜け防止モード: μk で微分すると、ガウス混合モデルと同じ方程式を持つ。 ですから 私たちは直接 結果を与えます
0.80
n=2 ξ(zn−1,j, zn,k) n=2(zn−1,j,zn,k) 0.92
n=2 ξ(zn−1,j, zn,l) n=2(zn−1,j,zn,l) 0.92
Aj,k = µk = Aj,k = μk= 0.85
l=1 l=1 . n=1 γ(zn,k)xn n=1 γ(zn,k) l=1 l=1 . n=1 γ(zn,k)xn n=1 γ(zn,k) 0.74
. The maximization of Θk is performed in the main paper in Section 3. . θkの最大化は、第3節のメインペーパーで行われる。 0.76
For a detailed explanation of all the properties of this algorithm we refer to [20]. このアルゴリズムの全ての性質を詳細に説明するためには [20] を参照する。 0.84
The E step corresponds to evaluating the expected value of the loglikelihood at θ. E ステップは θ における対数の期待値を評価することに対応する。 0.79
Given the values θold, i.e., the parameter values at the previous θold値、すなわち前のパラメータ値が与えられると、 0.78
8 8 0.85
英語(論文から抽出)日本語訳スコア
iteration, the expectation is defined by the function 繰り返し、期待は関数によって定義される 0.85
N(cid:88) Q(θ, θold) = γ(zn) ln(π) + N(cid:88) Q(θ, θold) = γ(zn) ln(π) + 0.87
ξ(zn−1, zn) ln A s(zn−1, zn) ln A 0.93
N(cid:88) K(cid:88) N(cid:88) K(cid:88) 0.84
(cid:20) n=1 (cid:20) n=1 0.69
k=1 + n=2 γ(zn,k) lnN (xn|µk, Θ−1 k=1 + n=2 γ(zn,k) lnN(xn|μk, φ−1) 0.70
k ) − 1 2 λ||Θk||1,od k ) − 1 2 λ||\k||1,od 0.68
(cid:21) (6) (cid:21) (6) 0.82
In the functional, γ(zn) = p(zn|X, θold) and ξ(zn−1, zn) = p(zn−1, zn|X, θold) are the expectations on the latent variables and they are typically computed by a forward-backward algorithm [3]. 関数において、γ(zn) = p(zn|X, sold) および γ(zn−1, zn) = p(zn−1, zn|X, sold) は潜在変数に対する予想であり、それらは通常、前方後方アルゴリズムによって計算される[3]。 0.80
Once the computation of the expectation is performed, the M step consists in finding the θ values which maximize the function Q. 期待値の計算が完了すると、m ステップは関数 q を最大化する θ の値を見つけることで構成される。 0.75
The derivation of the new parameters π, A and µ is straightforward from literature [3]. 新しいパラメータ π, A, μ の導出は、文献[3] から簡単である。 0.74
The maximization of Equation (6) w.r.t. Equation (6) w.r.tの最大化 0.78
Θ, instead requires further attention and it can be shown that, given the imposition of the Laplacian prior, reduces to the Graphical Lasso (Equation (2)) with few algebraic manipulations. θ は、その代わりにさらに注意が必要であり、ラプラシアンの前置法が与えられたとき、代数的操作の少ないグラフィカルラッソ (equation (2)) に還元されることを示すことができる。 0.69
Furthermore, the maximization of Θ can be performed separately for each Θk as, given k, all the maximizations are independent between each other. さらに、k が与えられたとき、すべての最大化は互いに独立であるように、各 tk に対して t の最大化を別々に行うことができる。 0.59
Thus, if we indicate as ¯xi = xi − µk the centered observations belonging to cluster k the joint log-likelihood at fixed k writes out as したがって、もし xi = xi − μk と示すならば、クラスタ k に属する中心的観測は固定 k におけるジョイントログ様相を次のように記述する。 0.64
n=1 N(cid:88) N(cid:88) N(cid:88) n=1 N(cid:88) N(cid:88) N(cid:88) 0.70
n=1 n=1 = = n=1 n=1 = = 0.72
γ(zn,k) lnN (xn|µk, Θ−1 γ(zn,k) lnN(xn|μk, φ−1) 0.76
λ||Θk||1,od λ||k||1,od 0.46
γ(zn,k) γ(zn,k) γ(zn,k) γ(zn,k) 0.85
2 ln detΘk − 1 2 2 ln det'k − 1 2 0.84
(cid:104) (cid:80)N (cid:80)N n=1 γ(zn,k)(¯xn,¯x(cid:48) n) (cid:104) (cid:80)n (cid:80)n n=1 γ(zn,k)( sxn, sx(cid:48) n) 0.83
ln detΘk − tr ln detθk − tr 0.79
2 n=1 γ(zn,k) and 2 n=1 γ(zn,k)と 0.90
(cid:110) Θk = arg max Θk (cid:110) θk = arg max θk 0.75
ln detΘk − tr ln detθk − tr 0.79
k ) − 1 (cid:16) N(cid:88) 2 (cid:16) ˜SkΘk k ) − 1 (cid:16) N(cid:88) 2 (cid:16) 0.88
n=1 tr γ(zn,k)(¯xn ¯x(cid:48) n=1 tr γ(zn,k)( >xn >x(cid:48) 0.76
(cid:17) − ˜λk||Θk||1,od (cid:17) − λk||θk||1,od 0.52
n)Θk λ||Θk||1,od n)θk λ||k||1,od 0.66
(7) (cid:17) − 1 (cid:105) (7) (cid:17)-1(cid:105) 0.84
2 is the weighted empirical covariance matrix, 2 重み付き経験的共分散行列です 0.73
(cid:16) ˜SkΘk (cid:17) − ˜λk||Θk||1,od (cid:16) (cid:17) − λk||θk||1,od 0.70
(cid:111) (8) (cid:111) (8) 0.82
where ˜Sk = λ(cid:80)N ˜λk = λk = λ (cid:80) である。 0.83
n=1 γ(zn,k) n=1 γ(zn,k) 0.94
which is equivalent to a Graphical Lasso [9]. これは Graphical Lasso [9] と同値です。 0.65
Equation (8) is a convex functional having guarantees of reaching a global optimum. 方程式(8)は、世界最適に達することを保証した凸関数である。 0.69
Differently, Equation (6) is non-convex and depending on the initialization different local optima may be reached. 異なる方程式 (6) は非凸であり、初期化によって異なる局所オプティマに到達することができる。 0.70
4 TAGM extensions The proposed approach can benefit from two types of extensions. 4 TAGM拡張提案されたアプローチは2種類の拡張の恩恵を受けることができる。 0.68
The first one consists in higher-order Markov relationships among latent states. 1つ目は潜在状態間の高次マルコフ関係からなる。 0.66
This can be 9 これはあり得ます 9 0.77
英語(論文から抽出)日本語訳スコア
achieved following [11], with the main drawback of a much higher computational time for learning as the transition matrix and the corresponding initial state dimensions increase. 移行行列と対応する初期状態寸法が増加するにつれて、学習のためのはるかに高い計算時間の主な欠点が達成された[11]。 0.78
The second extension consists in an online learning version that will allow to employ the model in a more applicative setting where we may deal with high-frequency data [5]. 第二の拡張は、高周波データを扱うことができるより適用性の高い設定でモデルを使用することを可能にするオンライン学習バージョンで構成されています[5]。 0.74
Indeed, in a situation where new observations arrive at a high rate (every second or even millisecond) we want to be able to fine tune the model online in order to consider such observations instantaneously. 実際、新しい観測が高速(すべての秒またはミリ秒)に達する状況では、そのような観測を瞬時に考慮するために、モデルをオンラインで微調整できることが望まれます。 0.75
This will allow to promptly gain insights on data and possibly predict the next time point. これにより、データに関する洞察を迅速に取得し、次の時点を予測することが可能になる。 0.61
The weakness of this extension is that it requires an approximation which makes the updated parameters less accurate respect to the batch (original) version. この拡張の弱点は、バッチ(元)バージョンに対する更新されたパラメータの精度を低下させる近似を必要とすることである。 0.83
We discuss in further details these two extensions in Sections 8 and 9 of the Supplementary material. 補足資料の第8節と第9節の2つの拡張について,さらに詳しく論じる。 0.71
In particular, we present two experiments where we compare them with TAGM that show the potential weaknesses. 特に, TAGMと比較し, 潜在的な弱点を示す実験を2回行った。 0.66
4.1 Higher order extension: Memory Time Adaptive Gaus- 4.1 高次拡張:メモリ時間適応ガウス- 0.77
sian model (MemTAGM) シアンモデル(MemTAGM) 0.73
Sometimes real world applications have events which rely on their past realizations. 現実世界のアプリケーションは、過去の実現に依存するイベントを持つことがある。 0.63
Therefore we can exploit more information from data if we consider a higher-order Markov process whose zn state probability does not depend only on zn−1 but also on the other r past states according to the choice of r. TAGM can be extended to higher order sequential relationships. したがって、zn 状態確率が zn−1 だけでなく、r. TAGM の選択による他の r 過去の状態にも依存しない高次マルコフ過程を考えると、データからより多くの情報を利用することができる。 0.73
We consider a homogeneous Markov process of order r ∈ Z+ over a finite state set {1, . 有限状態集合 {1, .} 上の順序 r ∈ Z+ の均質マルコフ過程を考える。 0.76
. . , K} with hidden sequence {z}N . . 隠れシーケンス {z}n を持つ , k} 0.84
n=1. This stochastic process satisfies n=1。 この確率過程は満足する 0.67
p(zn|{z(cid:96)}(cid:96)<n) = p(zn|{z(cid:96)}n−1 p(zn|{z(cid:96)}(cid:96)<n) = p(zn|{z(cid:96)}n−1 0.86
(cid:96)=n−r) (cid:96)=n−r) 0.64
or in other words zn can depend on a different number of hidden past states, and we assume that the process is homogeneous i.e., the transition probability is independent of n. To be as more general as possible we allow that the emission probability of xn can depend not only on zn but also from the previous m ∈ Z+ sequence of states 言い換えれば、zn は異なる数の隠れた過去状態に依存することができ、その過程が均質である、すなわち、遷移確率は n とは独立である、すなわち、可能な限り一般であるように、xn の放出確率は zn だけでなく、以前の m ∈ z+ 状態の系列にも依存することができる、と仮定する。 0.84
p(xn|{x(cid:96)}(cid:96)<n,{z(cid:96)}(cid:96)≤n) = p(xn|{z(cid:96)}n p(xn|{x(cid:96)}(cid:96)<n,{z(cid:96)}(cid:96)≤n) = p(xn|{z(cid:96)}n 0.91
(cid:96)=n−(m−1)). (cid:96)=n−(m−1))。 0.70
Each observation is conditionally independent of the previous ones and of the state sequence history, given the current and the preceding m − 1 states. 各観測は、電流と前のm − 1状態が与えられる前の観測と状態系列履歴とは条件付き独立である。 0.80
The idea is transform the High order hidden Markov model (HHMM) to a first order hidden Markov model (HMM). この考え方は、高次隠れマルコフモデル(HHMM)を1次隠れマルコフモデル(HMM)に変換することである。 0.69
It can be done by considering the following two propositions where we omit the prove but it can be found in [11] Proposition 1 Let Zn = [zn, zn−1, . 証明を省略するが、[11] Proposition 1 Let Zn = [zn, zn−1, .]で見つけることができる次の2つの命題を考えることによって行うことができる。 0.80
. . , zn−(ν−1)](cid:62). . . , zn−(ν−1)] (cid:62。 0.85
The process {Zn} is a first order homogeneous Markov process for any ν ≥ r, taking values in S ν. プロセス {Zn} は S ν で値を取る任意の ν ・ r に対する第一次均質マルコフ過程である。 0.84
Proposition 2 Let ν = max{r, m}. 命題 2 ν = max{r, m} とする。 0.73
The state sequence {Zn} and the observation sequence {xn} satisfy 状態シーケンス {Zn} と観測シーケンス {xn} が満足する 0.76
p(xn|{x(cid:96)}(cid:96)<n,{z(cid:96)}(cid:96)≤n) = p(xn|Zn) p(xn|{x(cid:96)}(cid:96)<n,{z(cid:96)}(cid:96)≤n) = p(xn|Zn) 0.90
and thus constitute a first order HMM. そして従って第1順序HMMを構成します。 0.66
10 10 0.85
英語(論文から抽出)日本語訳スコア
We can thus reformulate HHMM as a first order HMM with K ν states, where ν = max{r, m}. したがって、HHMM を K ν 状態を持つ一階 HMM として再構成することができ、ν = max{r, m} となる。 0.72
Note that the last ν − 1 entries of Zn are equal to the first ν − 1 entries of Zn+1, one concludes that a transition from zn to zn+1 is possible only if (cid:98)zn/K(cid:99) = zn+1 − (cid:98)zn+1/K ν−1(cid:99)K ν−1, and thus 1 Zn の最後の ν − 1 エントリは Zn+1 の最初の ν − 1 エントリと等しく、zn から zn+1 への遷移は (cid:98)zn/K(cid:99) = zn+1 − (cid:98)zn+1/K ν−1(cid:99)K ν−1, そして 1 である。 0.86
(cid:106) i (cid:107) (cid:106) (cid:107) 0.83
(cid:107) (cid:54)= j −(cid:106) (cid:107) (cid:54)= j −(cid:106) 0.80
Ai,j = 0 if Ai,j = 0 の場合 0.93
K ν−1 K ν−1. K ν−1 K ν−1。 0.71
Therefore we can use the EM algorithm to find the optimal parameters changing the number of states to K ν. したがって EM アルゴリズムを用いて状態の数を K ν に変化させる最適パラメータを求めることができる。 0.88
The zn,js which contribute to the M step for a quantity of state i are given by the set 状態 i の量に対して M ステップに寄与する zn,js は集合によって与えられる 0.75
(cid:16)(cid:106) (cid:16)(cid:106) 0.75
(cid:107) (cid:17) (cid:107) (cid:17) 0.78
(cid:41) (cid:40)(cid:106) (cid:41) (cid:40)(cid:106) 0.77
(cid:107) (cid:106) (cid:107) (cid:106) 0.78
Im(i) = i Im(i) = 私は 0.69
K ν−m K ν−m, K ν−m ν−m。 0.73
K ν−m + 1, . K ν−m + 1。 0.86
. . , i K ν−m . . , 私は K ν−m 0.76
+ 1 K ν−m − 1 + 1 K ν−m − 1 0.85
. Therefore the means become . それゆえ 手段は 0.76
µi = n=1 xn μi= n=1 xn 0.78
j∈Im(i) γ(zn,j) j∈Im(i)γ(zn,j) 0.99
n=1 j∈Im(i) γ(zn,j) n=1 j∈Im(i)γ(zn,j) 0.79
K (cid:107) K (cid:107) 0.82
i K ν−m (cid:80)N (cid:80)N 私は K ν−m (cid:80)N (cid:80)N 0.68
(cid:80) (cid:80) (cid:80)(cid:80) 0.73
(cid:80)N (cid:80)N (cid:80)N (cid:80)N 0.81
n=1 (cid:80) (cid:80) n=1 (cid:80)(cid:80) 0.66
The empirical covariances to substitute in the graphical lasso equation is グラフィカルラッソ方程式で代用する経験的共変性は 0.64
(cid:80)N n=1(xn − µi)(xn − µi)(cid:62)(cid:80) (cid:80)N n=1(xn − μi)(xn − μi)(cid:62)(cid:80) 0.81
˜Si = j∈Im(i) γ(zn,j) イシ=シシ j∈Im(i)γ(zn,j) 0.72
, j∈Im(i) γ(zn,j) , j∈Im(i)γ(zn,j) 0.92
with the hyper-parameter ˜λk = matrix becomes ハイパーパラメータで、λk = 行列は 0.75
λ n=1 j∈Im(i) γ(zn,j ) λ n=1 j∈Im(i)γ(zn,j) 0.81
Ai,j = n=2 Ai,j = n=2 0.72
k∈Ir (i) ξ(zn−1,k,z k∈Ir (i) ^(zn−1,k,z) 0.85
n,(cid:98) k K n,(cid:98) k K 0.96
(cid:99)+(cid:98) (cid:99)+(cid:98) 0.78
Kν−1 (cid:99)Kν−1 ) Kν−1 (cid:99)Kν−1 ) 0.55
j k∈Ir (i) ξ(zn−1,k,zn,l) j k∈Ir (i) ^(zn−1,k,zn,l) 0.90
 (cid:80)N  (cid:80)N 0.85
(cid:80) (cid:80)Kν (cid:80) (cid:80)kν 0.72
(cid:80)N (cid:80) (cid:80)N (cid:80) 0.81
0 otherwise. l=1 0であった。 l=1 0.57
n=2 . The transition probability n=2 . 遷移確率は 0.73
if (cid:98) i もし (cid:98) 0.85
K(cid:99) = j − (cid:98) K(cid:99) = j − (cid:98) 0.86
Kν−1(cid:99)K ν−1, Kν−1(cid:99)K ν−1 0.65
j Finally, the initial state probabilities are given by j 最後に、初期状態確率が与えられる。 0.78
πi = γ(z1,i). πi = γ(z1,i)。 0.95
Therefore if we increase the number of states to K ν and modify the TAGM M step formulas with the one just found we obtain the MemTAGM. したがって、状態の数を K ν に増やして TAGM M ステップ式を変更すると、MemTAGM を取得します。
訳抜け防止モード: したがって、状態の数を K ν に増やすと そしてちょうど私達がMemTAGMを得たものとTAGM Mのステップ式を変えて下さい。
0.77
We test MemTAGM performance in subsection 9.2 where we compare it with TAGM. TAGMと比較した9.2節でMemTAGMの性能をテストします。 0.76
4.2 On-line learning: Incremental Time Adaptive Gaus- 4.2 オンライン学習:インクリメンタル時間適応型gaus- 0.64
sian model (IncTAGM) シアンモデル(IncTAGM) 0.71
In many applications it is important to update the TAGM parameters almost instantaneously every time a new observation comes up. 多くのアプリケーションでは、新しい観察が現れるたびにほぼ瞬時にTAGMパラメータを更新することが重要です。 0.81
Since TAGM does not allow to have such a quick response, it can be extended to an incremental version. TAGMはそのような迅速な応答を許可しないので、インクリメンタルバージョンに拡張することができる。 0.74
We call this model IncTAGM and it initially starts as a standard TAGM reading このモデルをinctagmと呼び、最初は標準のtagm読み込みから始まります。 0.66
11 11 0.85
英語(論文から抽出)日本語訳スコア
a set of observations and updating its current parameters π, A, µ, Θ according to new incoming data. 新たな受信データに従って、現在のパラメータ π, A, μ, > を更新する一連の観測結果。 0.80
Therefore, after the standard TAGM has finished training on its observation set, it calculates the revised α, β, ξ and γ variables based on the new set of observations. したがって、標準のtagmが観測セットのトレーニングを終えた後、新しい観測セットに基づいて、修正されたα、β、およびγ変数を計算する。 0.70
To update the model incrementally, we need recursive equations for α and β which depend on past values. モデルをインクリメンタルに更新するには、過去の値に依存するαとβの再帰方程式が必要です。 0.76
Notice that the α recursive equation is already of this form. α再帰方程式が既にこの形式であることに注意。 0.81
While the β recursive equation needs an approximation to become of that form. β再帰方程式は、その形式になるのに近似を必要とする。 0.72
In fact if we assume that β(zT,i) (cid:39) β(zT,j) for every i (cid:54)= j, the β recursive equation becomes 実際、すべての i (cid:54)= j に対して β(zT,i) (cid:39) β(zT,j) と仮定すると、β再帰方程式は成り立つ。 0.80
β(zT +1) = β(zT +1) = 0.97
β(zT ) p(xT +1|zT +1)p(zT +1|zT ) β(zT) p(xT +1|zT +1)p(zT +1|zT ) 0.79
. zT +1 (cid:80) . zT +1 (cid:80) 0.84
(9) (10) the transition matrix A (9) (10) transition matrix (複数形 transition matrixs) 0.73
The M step optimal parameters are updated in the following way: the initial state π m ステップの最適パラメータは以下の方法で更新される: 最初の状態 π 0.86
π(cid:48) k = γ(z1,k), π(cid:48) k = γ(z1,k) 0.94
n=2 ξ(zn−1,j, zn,k) + ξ(zT,j, zT +1,k) n=2 ・(zn−1,j,zn,k)+ ・(zT,j,zT+1,k) 0.92
l=1 n=2 ξ(zn−1,j, zn,k) l=1 n=2(zn−1,j,zn,k) 0.83
(cid:80)T (cid:80)K (cid:80)T n=2 ξ(zn−1,j, zn,l) +(cid:80)K (cid:80)T (cid:80)T +1 (cid:80)T +1 (cid:80)T (cid:80)T +1 (cid:80)T (cid:80)T +1 (cid:80)T (cid:80)K (cid:80)T n=2 (zn−1,j, zn,l) + (cid:80)K (cid:80)T (cid:80)T +1 (cid:80)T +1 (cid:80)T (cid:80)T +1 (cid:80)T +1 (cid:80)T (cid:80)T +1 (cid:80)T +1 0.67
n=2 γ(zn−1,j) n=2 γ(zn−1,j) n=2 γ(zn−1,j) n=2 γ(zn−1,j) n=2 γ(zn−1,j) n=2 γ(zn−1,j) n=2 γ(zn−1,j) n=2 γ(zn−1,j) 0.76
(cid:80)T (cid:80)T (cid:80)T (cid:80)T 0.81
n=2 γ(zn−1,j) n=2 γ(zn−1,j) 0.78
AT j,k + + AT j,k + + 0.85
ξ(zT,j, zT +1,k) n=2 γ(zn−1,j) zT,j,zT +1,k) n=2 γ(zn−1,j) 0.95
n=2 ξ(zn−1,j, zn,k) n=2(zn−1,j,zn,k) 0.92
n=2 γ(zn−1,j) n=2 γ(zn−1,j) 0.78
(cid:80)T +1 (cid:80)T+1 0.72
ξ(zT,j, zT +1,k) n=2 γ(zn−1,j) zT,j,zT +1,k) n=2 γ(zn−1,j) 0.95
AT +1 j,k = AT+1 j,k = 0.82
= = = l=1 ξ(zT,j, zT +1,l) = = = l=1(zT,j,zT +1,l) 0.87
(cid:80)T +1 (cid:80)T+1 0.72
ξ(zT,j, zT +1,k) n=2 γ(zn−1,j) zT,j,zT +1,k) n=2 γ(zn−1,j) 0.95
+ . (11) Note that if we sum by k ∈ {1, . + . (11) k ∈ {1, .} で合計すると注意してください。 0.80
. . , K} the row normalization holds. . . , K} 行正規化が保持する。 0.80
Similarly we obtain the formula for the means 同様に 方法の式も得られます 0.66
(cid:80)T (cid:80)T +1 (cid:80)T (cid:80)T +1 0.78
µT +1 k = n=1 γ(zn,k) n=1 γ(zn,k) μT +1 k = n=1 γ(zn,k) n=1 γ(zn,k) 0.88
µT k + (cid:80)T +1 μT k + (cid:80)T+1 0.78
γ(zT +1,k)xT +1 n=1 γ(zn,k) γ(zT +1,k)xT +1 n=1 γ(zn,k) 0.95
(cid:80)T (cid:80)T +1 (cid:80)T (cid:80)T +1 0.78
and the empirical covariances ˜ST +1 k = 経験的共変性は 〜st +1 k = 0.57
n=1 γ(zn,k) n=1 γ(zn,k) n=1 γ(zn,k) n=1 γ(zn,k) 0.93
˜ST k + with the hyper-parameter ˜λk = ~ST k+ ハイパーパラメーター λk = を持つ 0.76
γ(zT +1,k)(xT +1 − µT +1)(xT +1 − µT +1)(cid:62) γ(zT +1,k)(xT +1 − μT +1)(xT +1 − μT +1)(cid:62) 0.87
(cid:80)T +1 (cid:80)T+1 0.72
n=1 γ(zn,k) n=1 γ(zn,k) 0.94
λ(cid:80)T +1 λ(cid:80)T +1 0.82
n=1 γ(zn,k) n=1 γ(zn,k) 0.94
. (12) , (13) . (12) , (13) 0.85
4.2.1 Slide Incremental Time Adaptive Gaussian model (S-IncTAGM) The training of new data points results in the accumulation of an increasingly large observation set. 4.2.1 Slide Incremental Time Adaptive Gaussian Model (S-IncTAGM) 新しいデータポイントのトレーニングにより、ますます大きな観測セットが蓄積される。 0.86
As a result, if the time sequence considered is large and the first point is far away in the past respect to the last point it is possible その結果、考慮された時間列が大きく、最初の点は最後の点に関して過去から遠く離れている場合は可能です。 0.71
12 12 0.85
英語(論文から抽出)日本語訳スコア
that the initial trained observation points become outdated after many updates and therefore they do not carry any useful information to analyze the more recent points. 初期訓練された観測点が多くの更新の後に時代遅れになるので、より最近の点を分析するのに有用な情報は一切持たない。 0.65
Therefore, the new addition to the IncTAGM is a fixed sliding window to effectively analyze discrete data (appropriately discarding the outdated observations) whilst updating its model parameters. したがって、IncTAGMへの新しい追加は、モデルパラメータを更新しながら、離散データを効果的に分析する固定スライドウィンドウ(古い観測を適切に破棄する)です。 0.82
The estimation of the α, β, ξ and γ variables remains the same as in the IncTAGM algorithm. α, β, y および γ 変数の推定は、IncTAGM アルゴリズムと同じままである。 0.72
What changes are the A, µ and Θ updates. 変更点は、a、μ、θのアップデートである。 0.71
Using the simple moving average (SMA) definition 単純移動平均 (SMA) の定義を用いる 0.86
x1 + x2 ··· + xn + xn+1 − x1 x1 + x2 ··· + xn + xn+1 − x1 0.72
sma = n where ave = x1+x2···+xn sma = n ave = x1+x2··+xn 0.71
n AT +1 j,k = n AT+1 j,k = 0.83
µT +1 k = with ˜λk = μT +1 k = λk = で 0.80
˜ST +1 k = 〜st +1 k = 0.65
λ(cid:80)T +1 λ(cid:80)T +1 0.82
n=2 γ(zn,k) n=2 γ(zn,k) 0.94
. = ave + xn+1 . = ave + xn+1 0.76
n − x1 n , we update A, µ and Θ in the following way n − x1 n A, μ および y を以下の方法で更新します。 0.86
n=3 ξ(zn−1,j, zn,k) n=3(zn−1,j,zn,k) 0.91
(cid:80)T +1 (cid:80)T +1 (cid:80)T +1 (cid:80)T +1 n=2 γ(zn,k)xn (cid:80)T +1 n=2 γ(zn,k) n=2 γ(zn,k)(xn − µT +1)(xn − µT +1)(cid:62) (cid:80)T +1 (cid:80)T +1 (cid:80)T +1 (cid:80)T +1 n=2 γ(zn,k)xn (cid:80)T +1 n=2 γ(zn,k) n=2 γ(zn,k)(xn − μT +1)(cid:62) 0.90
n=3 γ(zn−1,j) n=3 γ(zn−1,j) 0.78
, , (cid:80)T +1 , , (cid:80)T+1 0.81
n=2 γ(zn,k) n=2 γ(zn,k) 0.94
(14) (15) (16) (14) (15) (16) 0.85
(17) 5 Conclusions We presented a novel methodology to perform data-mining and forecasting on multi-variate time-series. (17) 5) 多変量時系列におけるデータマイニングと予測を行う新しい手法を提案した。 0.76
Our method, namely TAGM, combines HMMs and GGMs, providing a way to simultaneously cluster non-stationary time-series into stationary sub-groups and for each cluster detecting probability relationships among variables through graphical model inference. TAGMはHMMとGGMを組み合わせ、非定常時系列を定常サブグループに同時にクラスタ化し、各クラスタがグラフィカルモデル推論を通じて変数間の確率関係を検出する方法を提供する。 0.82
This simultaneous inference is suitable to be transformed into a time-varying regression model that allows to make predictions on non-stationary time-series. この同時推論は、静止しない時系列で予測できる時間変化回帰モデルに変換されるのに適している。 0.74
The coupling we performed allows to generalize many state-of-the-art methods and provide a wide range of analysis type to be performed on the time series. 私たちが行った結合は、多くの最先端のメソッドを一般化し、時系列で行うべき幅広い分析タイプを提供します。 0.68
References [1] Leonard E Baum and Ted Petrie. 参照 [1] Leonard E BaumとTed Petrie。 0.76
Statistical inference for probabilistic functions of finite state markov chains. 有限状態マルコフ鎖の確率関数の統計的推論 0.73
The annals of mathematical statistics, 37(6):1554–1563, 1966. annals of mathematical statistics, 37(6):1554–1563, 1966年。 0.92
[2] Leonard E Baum, Ted Petrie, George Soules, and Norman Weiss. [2] Leonard E Baum、Ted Petrie、George Soules、Norman Weiss。 0.72
A maximization technique occurring in the statistical analysis of probabilistic functions of markov chains. マルコフ鎖の確率関数の統計的解析における最大化法 0.70
The annals of mathematical statistics, 41(1):164–171, 1970. anals of mathematical statistics, 41(1):164–171, 1970年。 0.87
13 13 0.85
英語(論文から抽出)日本語訳スコア
[3] Christopher M Bishop. クリストファーM司教(Christopher M Bishop)。 0.64
Pattern recognition and machine learning. パターン認識と機械学習。 0.75
springer, 2006. スプリンガー 2006. 0.54
[4] Andersen Chang, Tianyi Yao, and Genevera I Allen. [4]Andersen Chang、Tianyi Yao、Genevera I Allen。 0.62
Graphical models and dynamic latent factors for modeling functional brain connectivity. 機能的脳接続モデリングのためのグラフィカルモデルと動的潜在因子 0.86
In 2019 IEEE Data Science Workshop (DSW), pages 57–63. 2019年IEEEデータサイエンスワークショップ(DSW)、57-63ページ。 0.75
IEEE, 2019. IEEE、2019年。 0.86
[5] Tiberiu Chis and Peter G Harrison. 5] Tiberiu ChisとPeter G Harrison。 0.71
Adapting hidden markov models for online learning. オンライン学習に隠れマルコフモデルを適用する。 0.65
Electronic Notes in Theoretical Computer Science, 318:109– 127, 2015. Electronic Notes in Theory Computer Science, 318:109–127, 2015 0.92
[6] Patrick Danaher, Pei Wang, and Daniela M Witten. 6] Patrick Danaher、Pei Wang、Daniela M Witten。 0.64
The joint graphical lasso for inverse covariance estimation across multiple classes. 複数のクラスにまたがる逆共分散推定のための共同グラフィカルラッソ 0.72
Journal of the Royal Statistical Society: Series B (Statistical Methodology), 76(2):373–397, 2014. journal of the royal statistical society: series b (statistical methodology), 76(2):373–397, 2014 (英語) 0.90
[7] Brian S Everitt. ブライアン・S・エヴァレット(Brian S Everitt)。 0.50
Finite mixture distributions. Wiley StatsRef: Statistics 有限混合分布。 Wiley StatsRef: Statistics 0.77
Reference Online, 2014. 2014年、オンライン。 0.71
[8] Nicholas J Foti, Rahul Nadkarni, AK Lee, and Emily B Fox. 8] Nicholas J Foti、Rahul Nadkarni、AK Lee、Emily B Fox。 0.67
Sparse plus low-rank graphical models of time series for functional connectivity in meg. sparse plus メグにおける機能的接続のための時系列の低ランクグラフィカルモデル。 0.70
In 2nd KDD Workshop on Mining and Learning from Time Series, 2016. 第2回 KDD Workshop on Mining and Learning from Time Series, 2016に参加して 0.84
[9] Jerome Friedman, Trevor Hastie, and Robert Tibshirani. 9] Jerome Friedman、Trevor Hastie、Robert Tibshirani。 0.63
Sparse inverse covariance estimation with the graphical lasso. Sparse inverse covariance estimate with the Graphic lasso. (英語) 0.76
Biostatistics, 9(3):432–441, 2008. 生物統計9(3):432–441, 2008 0.83
[10] Jian Guo, Elizaveta Levina, George Michailidis, and Ji Zhu. [10]Jian Guo, Elizaveta Levina, George Michailidis, Ji Zhu。 0.75
Joint estimation of multiple graphical models. 共同推定 複数のグラフィカル モデルの。 0.75
Biometrika, 98(1):1–15, 2011. Biometrika, 98(1):1–15, 2011。 0.82
[11] Uri Hadar et al. [11]Uri Hadar et al。 0.68
High-order hidden markov models-estimation and implementation. 高次隠れマルコフモデル -推定と実装- 0.65
In 2009 IEEE/SP 15th Workshop on Statistical Signal Processing, pages 249–252. 2009年、IEEE/SP 15th Workshop on Statistical Signal Processing, page 249–252。 0.71
IEEE, 2009. 2009年、IEEE。 0.68
[12] David Hallac, Jure Leskovec, and Stephen Boyd. 12] David Hallac、Jure Leskovec、Stephen Boyd。 0.63
Network lasso: Clustering and optimization in large graphs. network lasso: 大規模グラフのクラスタリングと最適化。 0.87
In Proceedings of the 21th ACM SIGKDD international conference on knowledge discovery and data mining, pages 387–396. 第21回ACM SIGKDD国際会議(Proceedings of the 21th ACM SIGKDD International Conference on knowledge discovery and data mining, page 387–396。 0.65
ACM, 2015. 2015年、ACM。 0.88
[13] David Hallac, Youngsuk Park, Stephen Boyd, and Jure Leskovec. 13] David Hallac、Youngsuk Park、Stephen Boyd、Jure Leskovec。 0.66
Network inference via the time-varying graphical lasso. 時間変化したグラフィカルラッソによるネットワーク推論。 0.68
In Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pages 205–213. 第23回ACM SIGKDD International Conference on Knowledge Discovery and Data Miningの進行において、205-213ページ。 0.79
ACM, 2017. 2017年、ACM。 0.87
[14] David Hallac, Sagar Vare, Stephen Boyd, and Jure Leskovec. 14] David Hallac, Sagar Vare, Stephen Boyd, Jure Leskovec。 0.68
Toeplitz inverse covariance-based clustering of multivariate time series data. Toeplitz inverse covariance-based clustering of multivariate time series data。 0.90
In Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pages 215–223. 第23回ACM SIGKDD International Conference on Knowledge Discovery and Data Miningにおいて、215-223ページ。 0.83
ACM, 2017. 2017年、ACM。 0.87
14 14 0.85
英語(論文から抽出)日本語訳スコア
[15] Sepp Hochreiter and Jürgen Schmidhuber. 15]Sepp Hochreiter氏とJürgen Schmidhuber氏。 0.77
Long short-term memory. Neural 長期短期記憶。 神経 0.64
computation, 9(8):1735–1780, 1997. 計算, 9(8):1735–1780, 1997。 0.79
[16] Steffen L Lauritzen. 16] Steffen L Lauritzen。 0.68
Graphical models, volume 17. グラフィックモデル、第17巻。 0.72
Clarendon Press, 1996. クラレンドン社、1996年。 0.59
[17] F. Li, L. Zhang, B. Chen, D. Gao, Y. Cheng, X. Zhang, Y. Yang, K. Gao, Z. Huang, and J. Peng. 17] F. Li、L. Zhang、B. Chen、D. Gao、Y. Cheng、X. Zhang、Y. Yang、K. Gao、Z. Huang、およびJ. Peng。 0.83
A Light Gradient Boosting Machine for Remainning Useful Life Estimation of Aircraft Engines. 航空機エンジンの有用な寿命推定を行うための軽量勾配昇圧機。 0.74
In 2018 21st International Conference on Intelligent Transportation Systems (ITSC), pages 3562–3567, 2018. 2018年の第21回国際知的輸送システム会議(ITSC)、3562-3567頁。 0.73
[18] Anani Lotsi and Ernst Wit. [18]Anani LotsiとErnst Wit。 0.71
High dimensional sparse gaussian graphical 高次元スパースガウス図形 0.63
mixture model. arXiv preprint arXiv:1308.3381, 2013. 混合モデル。 arXiv preprint arXiv:1308.3381, 2013 0.78
[19] James MacQueen et al. James MacQueen et al.[19] James MacQueen et al. 0.73
Some methods for classification and analysis of multivariate observations. 多変量観測の分類と解析のためのいくつかの方法 0.71
In Proceedings of the fifth Berkeley symposium on mathematical statistics and probability, volume 1, pages 281–297. 第5回バークレー数理統計と確率に関するシンポジウムの議事録第1巻281-297頁。 0.66
Oakland, CA, USA, 1967. オークランド、カリフォルニア州、1967年。 0.64
[20] Ronald C Neath et al. [20]Ronald C Neath et al。 0.69
On convergence properties of the monte carlo em algorithm. モンテカルロemアルゴリズムの収束特性について 0.53
In Advances in modern statistical theory and applications: A festschrift in honor of Morris L. Eaton, pages 43–62. 現代の統計理論と応用の進歩:モリス・L・イートンに敬意を表した祭典、43-62ページ。 0.74
Institute of Mathematical Statistics, 2013. 数学統計学研究所、2013年。 0.77
[21] Andrew Y Ng, Michael I Jordan, and Yair Weiss. [21]Andrew Y Ng, Michael I Jordan, Yair Weiss。 0.73
On spectral clustering: Analysis and an algorithm. スペクトルクラスタリングについて:分析とアルゴリズム。 0.80
In Advances in neural information processing systems, pages 849–856, 2002. 神経情報処理システムの進歩, ページ 849–856, 2002。 0.76
[22] Christopher A Sims. クリストファー・A・シムズ (Christopher A Sims) 0.58
Macroeconomics and reality. Econometrica: journal マクロ経済と現実。 Econometrica:ジャーナル 0.76
of the Econometric Society, pages 1–48, 1980. The Econometric Society, page 1–48, 1980。 0.86
[23] Federico Tomasi, Veronica Tozzo, and Annalisa Barla. 23] Federico Tomasi、Veronica Tozzo、Annalisa Barla。 0.62
Temporal patterns detection in time-varying graphical models. 時間的パターン 時間変化するグラフィカルモデルにおける検出 0.73
In Submitted for review. レビューのために提出。 0.70
[24] Federico Tomasi, Veronica Tozzo, Saverio Salzo, and Alessandro Verri. 24] Federico Tomasi、Veronica Tozzo、Saverio Salzo、およびAlessandro Verri。 0.72
Latent variable time-varying network inference. 遅延変数時間変動ネットワーク推論。 0.69
In Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, pages 2338–2346. 第24回 ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, page 2338–2346 に参加。 0.84
ACM, 2018. 2018年、ACM。 0.85
[25] Jean-Philippe Vert, Koji Tsuda, and Bernhard Schölkopf. [25]Jean-Philippe Vert, Tsuda Koji, Bernhard Schölkopf。 0.79
A primer on kernel methods. カーネルメソッドのプライマー。 0.50
Kernel methods in computational biology, 47:35–70, 2004. 計算生物学におけるカーネル法, 47:35–70, 2004。 0.59
15 15 0.85
                               ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。