論文の概要: TIMeSynC: Temporal Intent Modelling with Synchronized Context Encodings for Financial Service Applications
- arxiv url: http://arxiv.org/abs/2410.12825v2
- Date: Fri, 18 Oct 2024 20:05:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:11:01.903213
- Title: TIMeSynC: Temporal Intent Modelling with Synchronized Context Encodings for Financial Service Applications
- Title(参考訳): TIMeSynC:金融サービスアプリケーションのための同期コンテキスト符号化による時間インテントモデリング
- Authors: Dwipam Katariya, Juan Manuel Origgi, Yage Wang, Thomas Caputo,
- Abstract要約: NMT変換器は、コンテキストを符号化し、長距離依存を表現するための次の最良のアクションを復号することで、最先端のシーケンシャルな表現学習を実現する。
本稿では,金融サービスアプリケーションにおけるコンテキストおよびシーケンシャルな意図予測の課題に対処するエンコーダ・デコーダ・トランスフォーマモデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Users engage with financial services companies through multiple channels, often interacting with mobile applications, web platforms, call centers, and physical locations to service their accounts. The resulting interactions are recorded at heterogeneous temporal resolutions across these domains. This multi-channel data can be combined and encoded to create a comprehensive representation of the customer's journey for accurate intent prediction. This demands sequential learning solutions. NMT transformers achieve state-of-the-art sequential representation learning by encoding context and decoding for the next best action to represent long-range dependencies. However, three major challenges exist while combining multi-domain sequences within an encode-decoder transformers architecture for intent prediction applications: a) aligning sequences with different sampling rates b) learning temporal dynamics across multi-variate, multi-domain sequences c) combining dynamic and static sequences. We propose an encoder-decoder transformer model to address these challenges for contextual and sequential intent prediction in financial servicing applications. Our experiments show significant improvement over the existing tabular method.
- Abstract(参考訳): ユーザは複数のチャネルを通じて金融サービス企業と関わり、多くの場合、モバイルアプリケーションやWebプラットフォーム、コールセンター、物理的な場所と対話して、アカウントをサービスする。
結果として生じる相互作用は、これらの領域にわたる異種時間分解で記録される。
このマルチチャネルデータを合成してエンコードすることで、顧客の旅路を包括的に表現し、正確な意図を予測する。
これは逐次学習ソリューションを必要とする。
NMT変換器は、コンテキストを符号化し、長距離依存を表現するための次の最良のアクションを復号することで、最先端のシーケンシャルな表現学習を実現する。
しかし、エンコード・デコーダ・トランスフォーマー・アーキテクチャ内のマルチドメインシーケンスを組み合わせて意図予測を行う場合、大きな課題が3つある。
a)異なるサンプリングレートで配列を整列すること
b) 多変量多領域配列間の時間的ダイナミクスの学習
c) 動的シーケンスと静的シーケンスを組み合わせること。
本稿では,金融サービスアプリケーションにおけるコンテキストおよびシーケンシャルな意図予測の課題に対処するエンコーダ・デコーダ・トランスフォーマモデルを提案する。
実験の結果,既存の表計算法よりも顕著な改善が見られた。
関連論文リスト
- Encoding Agent Trajectories as Representations with Sequence Transformers [0.4999814847776097]
本稿では,ニューラルネットワークアーキテクチャを用いた高次元トラジェクトリを表現するモデルを提案する。
言語モデルと同様に、我々のTransformer Sequence for Agent temporal Representation (STARE)モデルは、軌跡データにおける表現と構造を学習することができる。
合成および実軌道データを用いた実験結果から,提案モデルが有意なエンコーディングを学習できることが示唆された。
論文 参考訳(メタデータ) (2024-10-11T19:18:47Z) - PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - DRFormer: Multi-Scale Transformer Utilizing Diverse Receptive Fields for Long Time-Series Forecasting [3.420673126033772]
本稿では,動的スパース学習アルゴリズムを用いた動的トークン化手法を提案する。
提案するDRFormerは,実世界の様々なデータセットを用いて評価し,既存の手法と比較して,その優位性を示す実験結果を得た。
論文 参考訳(メタデータ) (2024-08-05T07:26:47Z) - Unsupervised Multi-modal Feature Alignment for Time Series
Representation Learning [20.655943795843037]
異なるモダリティから符号化された時系列表現の整合と結合に焦点を当てた革新的なアプローチを導入する。
複数のモーダルから特徴を融合させる従来の手法とは対照的に,提案手法は単一時系列エンコーダを保持することにより,ニューラルアーキテクチャを単純化する。
我々のアプローチは、様々な下流タスクにまたがる既存の最先端のURLメソッドよりも優れています。
論文 参考訳(メタデータ) (2023-12-09T22:31:20Z) - MISSRec: Pre-training and Transferring Multi-modal Interest-aware
Sequence Representation for Recommendation [61.45986275328629]
逐次レコメンデーションのためのマルチモーダル事前学習・転送学習フレームワークであるMISSRecを提案する。
ユーザ側ではトランスフォーマーベースのエンコーダデコーダモデルを設計し、コンテキストエンコーダがシーケンスレベルのマルチモーダルユーザ興味を捉えることを学習する。
候補項目側では,ユーザ適応項目表現を生成するために動的融合モジュールを採用する。
論文 参考訳(メタデータ) (2023-08-22T04:06:56Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Hierarchical Local-Global Transformer for Temporal Sentence Grounding [58.247592985849124]
本稿では,時間文グラウンドリングのマルチメディア問題について検討する。
与えられた文問合せに従って、トリミングされていないビデオ内の特定のビデオセグメントを正確に決定することを目的としている。
論文 参考訳(メタデータ) (2022-08-31T14:16:56Z) - StreaMulT: Streaming Multimodal Transformer for Heterogeneous and
Arbitrary Long Sequential Data [0.0]
StreaMulTは、クロスモーダルアテンションとメモリバンクに依存するストリーミングマルチモーダルトランスであり、トレーニング時に任意に長い入力シーケンスを処理し、推論時にストリーミング形式で実行する。
StreaMulTは、Multimodal Sentiment Analysisタスク用のCMU-MOSEIデータセットの最先端メトリクスを改善し、他のマルチモーダルモデルよりもはるかに長い入力を処理することができる。
論文 参考訳(メタデータ) (2021-10-15T11:32:17Z) - CCVS: Context-aware Controllable Video Synthesis [95.22008742695772]
プレゼンテーションでは、古いビデオクリップから新しいビデオクリップを合成するための自己教師付き学習アプローチを紹介している。
時間的連続性のための文脈情報と微妙な制御のための補助情報に基づいて合成過程を規定する。
論文 参考訳(メタデータ) (2021-07-16T17:57:44Z) - Multi-Exit Vision Transformer for Dynamic Inference [88.17413955380262]
視覚変換器のバックボーンの動的推論に使用できる早期出口分岐のための7つの異なるアーキテクチャを提案する。
提案したアーキテクチャのそれぞれが,精度と速度のトレードオフにおいて有用であることを示す。
論文 参考訳(メタデータ) (2021-06-29T09:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。