論文の概要: Unsupervised Multi-modal Feature Alignment for Time Series
Representation Learning
- arxiv url: http://arxiv.org/abs/2312.05698v1
- Date: Sat, 9 Dec 2023 22:31:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 19:11:15.878490
- Title: Unsupervised Multi-modal Feature Alignment for Time Series
Representation Learning
- Title(参考訳): 時系列表現学習のための教師なしマルチモーダル特徴アライメント
- Authors: Chen Liang, Donghua Yang, Zhiyu Liang, Hongzhi Wang, Zheng Liang,
Xiyang Zhang, Jianfeng Huang
- Abstract要約: 異なるモダリティから符号化された時系列表現の整合と結合に焦点を当てた革新的なアプローチを導入する。
複数のモーダルから特徴を融合させる従来の手法とは対照的に,提案手法は単一時系列エンコーダを保持することにより,ニューラルアーキテクチャを単純化する。
我々のアプローチは、様々な下流タスクにまたがる既存の最先端のURLメソッドよりも優れています。
- 参考スコア(独自算出の注目度): 20.655943795843037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent times, the field of unsupervised representation learning (URL) for
time series data has garnered significant interest due to its remarkable
adaptability across diverse downstream applications. Unsupervised learning
goals differ from downstream tasks, making it tricky to ensure downstream task
utility by focusing only on temporal feature characterization. Researchers have
proposed multiple transformations to extract discriminative patterns implied in
informative time series, trying to fill the gap. Despite the introduction of a
variety of feature engineering techniques, e.g. spectral domain, wavelet
transformed features, features in image form and symbolic features etc. the
utilization of intricate feature fusion methods and dependence on heterogeneous
features during inference hampers the scalability of the solutions. To address
this, our study introduces an innovative approach that focuses on aligning and
binding time series representations encoded from different modalities, inspired
by spectral graph theory, thereby guiding the neural encoder to uncover latent
pattern associations among these multi-modal features. In contrast to
conventional methods that fuse features from multiple modalities, our proposed
approach simplifies the neural architecture by retaining a single time series
encoder, consequently leading to preserved scalability. We further demonstrate
and prove mechanisms for the encoder to maintain better inductive bias. In our
experimental evaluation, we validated the proposed method on a diverse set of
time series datasets from various domains. Our approach outperforms existing
state-of-the-art URL methods across diverse downstream tasks.
- Abstract(参考訳): 近年、時系列データに対する教師なし表現学習(URL)の分野は、様々な下流アプリケーションにまたがる顕著な適応性により、大きな関心を集めている。
教師なし学習のゴールは下流のタスクと異なり、時間的特徴の特徴のみに着目して下流のタスクユーティリティを確保するのが難しい。
研究者は、情報的時系列に暗示される識別パターンを抽出し、ギャップを埋めるために複数の変換を提案している。
スペクトル領域、ウェーブレット変換機能、画像形式、象徴的特徴などの様々な特徴工学技術が導入されているが、複雑な特徴融合法の利用や推論中の不均一特徴への依存は、ソリューションのスケーラビリティを阻害している。
そこで本研究では,スペクトルグラフ理論に着想を得て,異なるモーダル性から符号化された時系列表現の整合と結合に焦点をあてた革新的な手法を導入し,これらの多モード特徴間の潜在パターン関連を明らかにするためのニューラルエンコーダを導出する。
複数のモーダルから特徴を融合させる従来の手法とは対照的に,提案手法は単一時系列エンコーダを保持することによりニューラルネットワークアーキテクチャを単純化し,拡張性を維持する。
さらに、より優れた帰納バイアスを維持するためのエンコーダのメカニズムを実証し、証明する。
実験により,様々な領域の時系列データセットに対して,提案手法の有効性を検証した。
我々のアプローチは、様々な下流タスクにまたがる既存の最先端のURLメソッドよりも優れています。
関連論文リスト
- UniTime: A Language-Empowered Unified Model for Cross-Domain Time Series
Forecasting [59.11817101030137]
この研究はドメイン境界を超越する統一モデルパラダイムを提唱する。
効果的なクロスドメインモデルを学ぶことは、以下の課題を提示します。
効果的なドメイン間時系列学習のためのUniTimeを提案する。
論文 参考訳(メタデータ) (2023-10-15T06:30:22Z) - Contrastive Shapelet Learning for Unsupervised Multivariate Time Series
Representation Learning [21.437162740349045]
教師なし表現学習(URL)は、アクセス不能なラベルを使わずに、多くの下流タスクの一般化可能な表現を学習する能力を持つ。
本稿では,一般的なコントラスト学習パラダイムを通じて時系列固有のシェープレットに基づく表現を学習し,新しいURLフレームワークを提案する。
統一型シェープレットベースのエンコーダと,マルチグレードコントラストとマルチスケールアライメントを備えた新しい学習目標が,目的達成のために特に設計されている。
論文 参考訳(メタデータ) (2023-05-30T09:31:57Z) - Gait Recognition in the Wild with Multi-hop Temporal Switch [81.35245014397759]
野生での歩行認識は、より実践的な問題であり、マルチメディアとコンピュータビジョンのコミュニティの注目を集めています。
本稿では,現実のシーンにおける歩行パターンの効果的な時間的モデリングを実現するために,新しいマルチホップ時間スイッチ方式を提案する。
論文 参考訳(メタデータ) (2022-09-01T10:46:09Z) - An Unsupervised Short- and Long-Term Mask Representation for
Multivariate Time Series Anomaly Detection [2.387411589813086]
本稿では,教師なし短時間・長期マスク表現学習(SLMR)に基づく異常検出手法を提案する。
実験により,本手法の性能は,実世界の3つのデータセットにおいて,他の最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-08-19T09:34:11Z) - Generating Sparse Counterfactual Explanations For Multivariate Time
Series [0.5161531917413706]
多変量時系列に対するSPARse Counterfactual Explanationsを生成するGANアーキテクチャを提案する。
提案手法は, トラジェクトリの類似性, 疎性, 滑らか性の観点から, 対実損失関数を正規化する。
我々は,実世界の人間の動作データセットと合成時系列解釈可能性ベンチマークに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-06-02T08:47:06Z) - Consistency and Diversity induced Human Motion Segmentation [231.36289425663702]
本稿では,CDMS(Consistency and Diversity induced Human Motion)アルゴリズムを提案する。
我々のモデルは、ソースとターゲットデータを異なる多層特徴空間に分解する。
ソースとターゲットデータ間の領域ギャップを低減するために、マルチミューチュアル学習戦略を実行する。
論文 参考訳(メタデータ) (2022-02-10T06:23:56Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - Unsupervised Time Series Outlier Detection with Diversity-Driven
Convolutional Ensembles -- Extended Version [29.753910237103216]
本稿では,外乱検出のための多様性駆動型畳み込みアンサンブルを提案する。
このアンサンブルは、畳み込みシーケンス対シーケンスオートエンコーダ上に構築された複数の基本外乱検出モデルを採用している。
アンサンブルの精度を向上させることを目的とした,新しい多様性駆動トレーニング手法が基本モデルの多様性を維持している。
論文 参考訳(メタデータ) (2021-11-22T10:58:53Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - CCVS: Context-aware Controllable Video Synthesis [95.22008742695772]
プレゼンテーションでは、古いビデオクリップから新しいビデオクリップを合成するための自己教師付き学習アプローチを紹介している。
時間的連続性のための文脈情報と微妙な制御のための補助情報に基づいて合成過程を規定する。
論文 参考訳(メタデータ) (2021-07-16T17:57:44Z) - On Disentanglement in Gaussian Process Variational Autoencoders [3.403279506246879]
時系列データ上で異なるタスクに成功しているモデルを最近導入した。
本モデルでは,各潜伏チャネルをGP前にモデル化し,構造的変動分布を用いることで,データの時間的構造を利用する。
実世界の医療時系列データから有意義な不整合表現を学習できる証拠を提供する。
論文 参考訳(メタデータ) (2021-02-10T15:49:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。