論文の概要: Tensor Dirichlet Process Multinomial Mixture Model for Passenger
Trajectory Clustering
- arxiv url: http://arxiv.org/abs/2306.13794v1
- Date: Fri, 23 Jun 2023 21:44:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 19:08:45.577518
- Title: Tensor Dirichlet Process Multinomial Mixture Model for Passenger
Trajectory Clustering
- Title(参考訳): テンソルディリクレ過程多項混合モデルによる乗客軌道クラスタリング
- Authors: Ziyue Li, Hao Yan, Chen Zhang, Andi Wang, Wolfgang Ketter, Lijun Sun,
Fugee Tsung
- Abstract要約: 我々は新しいディリクレプロセス多項モデル(Tensor-DPMM)を提案する。
テンソルを介して多次元旅行情報の多モード・階層構造を保存し,一段階的にクラスタ化するように設計されている。
また、Dirichlet Processを使用して、既存のクラスタに割り当てられた乗客の確率を決定するか、新しいクラスタを作成することで、クラスタの数を自動で決定する機能も備えている。
- 参考スコア(独自算出の注目度): 21.51161506280304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Passenger clustering based on travel records is essential for transportation
operators. However, existing methods cannot easily cluster the passengers due
to the hierarchical structure of the passenger trip information, namely: each
passenger has multiple trips, and each trip contains multi-dimensional
multi-mode information. Furthermore, existing approaches rely on an accurate
specification of the clustering number to start, which is difficult when
millions of commuters are using the transport systems on a daily basis. In this
paper, we propose a novel Tensor Dirichlet Process Multinomial Mixture model
(Tensor-DPMM), which is designed to preserve the multi-mode and hierarchical
structure of the multi-dimensional trip information via tensor, and cluster
them in a unified one-step manner. The model also has the ability to determine
the number of clusters automatically by using the Dirichlet Process to decide
the probabilities for a passenger to be either assigned in an existing cluster
or to create a new cluster: This allows our model to grow the clusters as
needed in a dynamic manner. Finally, existing methods do not consider spatial
semantic graphs such as geographical proximity and functional similarity
between the locations, which may cause inaccurate clustering. To this end, we
further propose a variant of our model, namely the Tensor-DPMM with Graph. For
the algorithm, we propose a tensor Collapsed Gibbs Sampling method, with an
innovative step of "disband and relocating", which disbands clusters with too
small amount of members and relocates them to the remaining clustering. This
avoids uncontrollable growing amounts of clusters. A case study based on Hong
Kong metro passenger data is conducted to demonstrate the automatic process of
learning the number of clusters, and the learned clusters are better in
within-cluster compactness and cross-cluster separateness.
- Abstract(参考訳): 移動記録に基づく乗客クラスタリングは交通事業者にとって不可欠である。
しかし、既存の方法では、旅客旅行情報の階層構造、すなわち、各乗客が複数の旅行をしており、各旅行には多次元多モード情報が含まれるため、乗客のクラスタリングが困難である。
さらに、既存のアプローチはクラスタリング番号の正確な仕様に依存しており、何百万人もの通勤者が日常的に輸送システムを使っている場合、難しい。
本稿では,テンソルを用いた多次元旅行情報の多モード・階層構造を保存し,それらを一段階的にクラスタリングする新しいテンソル・ディリクレ・プロセス多相混合モデル(Tensor-DPMM)を提案する。
モデルには、dirichletプロセスを使用して自動的にクラスタ数を決定する機能もあり、乗客が既存のクラスタに割り当てられるか、新しいクラスタを作成するかを決定することができます。
最後に、既存の手法では、位置間の地理的近接や機能的類似性のような空間意味グラフを考慮せず、不正確なクラスタリングを引き起こす可能性がある。
そこで本研究では,このモデル,すなわちグラフ付きTensor-DPMMを提案する。
そこで本アルゴリズムでは,小人数のメンバでクラスタを分割し,残りのクラスタに移動させる「分割と移動」という革新的なステップで,テンソルのCollapsed Gibbs Smpling法を提案する。
これにより、制御不能なクラスタの増加が回避される。
香港の地下鉄利用者データに基づくケーススタディにより,クラスタ数の自動学習プロセスが実証され,クラスタ内コンパクト性とクラスタ間分離性が向上した。
関連論文リスト
- Clustering Based on Density Propagation and Subcluster Merging [92.15924057172195]
本稿では,クラスタ数を自動的に決定し,データ空間とグラフ空間の両方に適用可能な密度に基づくノードクラスタリング手法を提案する。
二つのノード間の距離を計算する従来の密度クラスタリング法とは異なり,提案手法は伝播過程を通じて密度を決定する。
論文 参考訳(メタデータ) (2024-11-04T04:09:36Z) - Choose A Table: Tensor Dirichlet Process Multinomial Mixture Model with
Graphs for Passenger Trajectory Clustering [33.36290451052104]
グラフを用いた新しいテンソルディリクレプロセス多相混合モデルを提案する。
このモデルは多次元旅行情報の階層構造を保存し、それらを一段階の統一的な方法でクラスタ化することができる。
香港の地下鉄利用者データに基づくケーススタディを行い,クラスター量の自動的進化過程を実証した。
論文 参考訳(メタデータ) (2023-10-31T06:53:04Z) - DMS: Differentiable Mean Shift for Dataset Agnostic Task Specific
Clustering Using Side Information [0.0]
我々は、サイド情報から直接データをクラスタリングすることを学ぶ新しいアプローチを提案する。
クラスタの数、その中心、あるいは類似性に関するあらゆる種類の距離メートル法を知る必要はありません。
本手法は,特定のタスクのニーズに応じて,同じデータポイントを様々な方法で分割することができる。
論文 参考訳(メタデータ) (2023-05-29T13:45:49Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - High-dimensional variable clustering based on maxima of a weakly dependent random process [1.1999555634662633]
本稿では,Asymptotic Independent Block (AI-block)モデルと呼ばれる,変数クラスタリングのための新しいモデルのクラスを提案する。
このモデルのクラスは特定可能であり、つまり、分割の間に部分的な順序を持つ極大要素が存在し、統計的推測が可能であることを意味する。
また,変数のクラスタを列挙するチューニングパラメータに依存するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-02T08:24:26Z) - A parallelizable model-based approach for marginal and multivariate
clustering [0.0]
本稿では,モデルに基づくクラスタリングの頑健さを生かしたクラスタリング手法を提案する。
我々は、各マージンごとに異なる数のクラスタを持つことができる有限混合モデルを指定することで、この問題に対処する。
提案手法は、完全な(結合した)モデルベースのクラスタリング手法よりも、中程度から高次元の処理に適するだけでなく、計算的にも魅力的である。
論文 参考訳(メタデータ) (2022-12-07T23:54:41Z) - Neural Mixture Models with Expectation-Maximization for End-to-end Deep
Clustering [0.8543753708890495]
本稿では,ニューラルネットワークを用いた混合モデルに基づくクラスタリングを実現する。
我々は,Eステップとして前方パス,Mステップとして後方パスを動作させるバッチワイズEMイテレーションにより,ネットワークのエンドツーエンドをトレーニングする。
トレーニングされたネットワークは、k-meansに依存した単一ステージのディープクラスタリング手法よりも優れています。
論文 参考訳(メタデータ) (2021-07-06T08:00:58Z) - You Never Cluster Alone [150.94921340034688]
我々は、主流のコントラスト学習パラダイムをクラスタレベルのスキームに拡張し、同じクラスタに属するすべてのデータが統一された表現に寄与する。
分類変数の集合をクラスタ化代入信頼度として定義し、インスタンスレベルの学習トラックとクラスタレベルの学習トラックを関連付ける。
代入変数を再パラメータ化することで、TCCはエンドツーエンドでトレーニングされる。
論文 参考訳(メタデータ) (2021-06-03T14:59:59Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Progressive Cluster Purification for Unsupervised Feature Learning [48.87365358296371]
教師なしの特徴学習では、サンプル特異性に基づく手法はクラス間の情報を無視する。
本稿では,プログレッシブクラスタ形成時にクラス不整合サンプルを除外するクラスタリングに基づく新しい手法を提案する。
我々の手法は、プログレッシブ・クラスタ・パーフィケーション(PCP)と呼ばれ、訓練中に徐々にクラスタ数を減らし、プログレッシブ・クラスタリングを実装している。
論文 参考訳(メタデータ) (2020-07-06T08:11:03Z) - LSD-C: Linearly Separable Deep Clusters [145.89790963544314]
ラベルなしデータセットのクラスタを識別する新しい手法であるLSD-Cを提案する。
本手法は,最近の半教師付き学習の実践からインスピレーションを得て,クラスタリングアルゴリズムと自己教師付き事前学習と強力なデータ拡張を組み合わせることを提案する。
CIFAR 10/100, STL 10, MNIST, および文書分類データセットReuters 10Kなど, 一般的な公開画像ベンチマークにおいて, 当社のアプローチが競合より大幅に優れていたことを示す。
論文 参考訳(メタデータ) (2020-06-17T17:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。