論文の概要: RadarSeq: A Temporal Vision Framework for User Churn Prediction via Radar Chart Sequences
- arxiv url: http://arxiv.org/abs/2506.17325v1
- Date: Wed, 18 Jun 2025 22:20:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.350923
- Title: RadarSeq: A Temporal Vision Framework for User Churn Prediction via Radar Chart Sequences
- Title(参考訳): RadarSeq: Radar Chart Sequencesによるユーザチャーン予測のための一時的なビジョンフレームワーク
- Authors: Sina Najafi, M. Hadi Sepanj, Fahimeh Jafari,
- Abstract要約: 本稿では,ユーザの行動パターンをレーダチャート画像のシーケンスとしてモデル化する,時間的認識型コンピュータビジョンフレームワークを提案する。
我々のアーキテクチャは、チャーン行動に基づく空間的パターンと時間的パターンの両方をキャプチャする。
フレームワークのモジュール設計、説明可能性ツール、効率的なデプロイメント特性は、動的ギグエコノミープラットフォームにおける大規模チャーンモデリングに適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Predicting user churn in non-subscription gig platforms, where disengagement is implicit, poses unique challenges due to the absence of explicit labels and the dynamic nature of user behavior. Existing methods often rely on aggregated snapshots or static visual representations, which obscure temporal cues critical for early detection. In this work, we propose a temporally-aware computer vision framework that models user behavioral patterns as a sequence of radar chart images, each encoding day-level behavioral features. By integrating a pretrained CNN encoder with a bidirectional LSTM, our architecture captures both spatial and temporal patterns underlying churn behavior. Extensive experiments on a large real-world dataset demonstrate that our method outperforms classical models and ViT-based radar chart baselines, yielding gains of 17.7 in F1 score, 29.4 in precision, and 16.1 in AUC, along with improved interpretability. The framework's modular design, explainability tools, and efficient deployment characteristics make it suitable for large-scale churn modeling in dynamic gig-economy platforms.
- Abstract(参考訳): 非サブスクリプションギグプラットフォームでユーザチャーンを予測することは、明示的なラベルの欠如とユーザ行動の動的な性質によって、ユニークな課題を生じさせる。
既存の手法は、しばしば集約されたスナップショットや静的な視覚的表現に依存しており、これは早期発見に欠かせない時間的手がかりである。
本研究では,ユーザの行動パターンをレーダチャート画像のシーケンスとしてモデル化し,日々の行動特徴を符号化する時間認識型コンピュータビジョンフレームワークを提案する。
事前学習したCNNエンコーダを双方向LSTMに統合することにより、このアーキテクチャはチャーン動作に基づく空間的パターンと時間的パターンの両方をキャプチャする。
大規模な実世界のデータセットに対する大規模な実験により、我々の手法は古典的モデルとViTベースのレーダーチャートのベースラインを上回り、F1スコアで17.7、精度で29.4、AUCで16.1、解釈性の向上とともに利益を得ることが示された。
フレームワークのモジュール設計、説明可能性ツール、効率的なデプロイメント特性は、動的ギグエコノミープラットフォームにおける大規模チャーンモデリングに適している。
関連論文リスト
- T-SHRED: Symbolic Regression for Regularization and Model Discovery with Transformer Shallow Recurrent Decoders [2.8820361301109365]
シャローリカレントデコーダ(SHRED)はスパースセンサ測定からシステム同定と予測に有効である。
我々は、次のステップ状態予測の性能を向上させる時間符号化に変換器(T-SHRED)を活用することにより、SHREDを改善する。
シンボリック回帰は、トレーニング中の潜在空間のダイナミクスを学習し、規則化することによって、モデルの解釈可能性を改善する。
論文 参考訳(メタデータ) (2025-06-18T21:14:38Z) - ASTRA: A Scene-aware TRAnsformer-based model for trajectory prediction [15.624698974735654]
ASTRA (A Scene-aware TRAnsformer based model for trajectory prediction) は軽量な歩行者軌道予測モデルである。
我々は、U-Netベースの特徴抽出器を用いて、その潜在ベクトル表現を用いて、シーン表現をキャプチャし、グラフ対応トランスフォーマーエンコーダを用いて、ソーシャルインタラクションをキャプチャする。
論文 参考訳(メタデータ) (2025-01-16T23:28:30Z) - TimeDART: A Diffusion Autoregressive Transformer for Self-Supervised Time Series Representation [6.047856576139978]
我々は,新しい自己教師型時系列事前学習フレームワークである textbfTimeDART を提案する。
TimeDARTは2つの強力な生成パラダイムを統合し、より伝達可能な表現を学ぶ。
時系列予測と分類のための公開データセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2024-10-08T06:08:33Z) - DyG-Mamba: Continuous State Space Modeling on Dynamic Graphs [59.434893231950205]
動的グラフ学習は、現実世界のシステムにおける進化の法則を明らかにすることを目的としている。
動的グラフ学習のための新しい連続状態空間モデルDyG-Mambaを提案する。
我々はDyG-Mambaがほとんどのデータセットで最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-08-13T15:21:46Z) - Detecting Anomalies in Dynamic Graphs via Memory enhanced Normality [39.476378833827184]
動的グラフにおける異常検出は、グラフ構造と属性の時間的進化によって大きな課題となる。
時空間記憶強調グラフオートエンコーダ(STRIPE)について紹介する。
STRIPEは、AUCスコアが5.8%改善し、トレーニング時間が4.62倍速く、既存の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-03-14T02:26:10Z) - EasyDGL: Encode, Train and Interpret for Continuous-time Dynamic Graph Learning [92.71579608528907]
本稿では,3つのモジュールから構成される使い勝手の良いパイプライン(EasyDGL)を設計することを目的とする。
EasyDGLは、進化するグラフデータからモデルが学習する周波数コンテンツの予測力を効果的に定量化することができる。
論文 参考訳(メタデータ) (2023-03-22T06:35:08Z) - DyG2Vec: Efficient Representation Learning for Dynamic Graphs [26.792732615703372]
時間グラフニューラルネットワークは、時間パターンを自動的に抽出することで、帰納的表現の学習において有望な結果を示している。
時間的エッジエンコーディングとウィンドウベースのサブグラフサンプリングを利用してタスクに依存しない埋め込みを生成する。
論文 参考訳(メタデータ) (2022-10-30T18:13:04Z) - Dynamic Spatial Sparsification for Efficient Vision Transformers and
Convolutional Neural Networks [88.77951448313486]
視覚データにおける空間空間空間性を利用したモデルアクセラレーションのための新しい手法を提案する。
本稿では,冗長トークンを具現化する動的トークンスペーシフィケーションフレームワークを提案する。
提案手法は,CNNや階層型視覚変換器などの階層モデルに拡張する。
論文 参考訳(メタデータ) (2022-07-04T17:00:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。