論文の概要: Learning Time-Series Representations by Hierarchical Uniformity-Tolerance Latent Balancing
- arxiv url: http://arxiv.org/abs/2510.01658v1
- Date: Thu, 02 Oct 2025 04:30:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.988521
- Title: Learning Time-Series Representations by Hierarchical Uniformity-Tolerance Latent Balancing
- Title(参考訳): 階層的一様性-耐性遅延バランスによる時系列表現の学習
- Authors: Amin Jalali, Milad Soltany, Michael Greenspan, Ali Etemad,
- Abstract要約: TimeHUTは、コントラスト表現の階層的耐性バランスによって時系列表現を学習する新しい方法である。
本手法は, 組込み空間における一様性と耐久性の効果的なバランスを打つことを目的として, 強表現の学習に2つの異なる損失を用いる。
- 参考スコア(独自算出の注目度): 31.568247637126035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose TimeHUT, a novel method for learning time-series representations by hierarchical uniformity-tolerance balancing of contrastive representations. Our method uses two distinct losses to learn strong representations with the aim of striking an effective balance between uniformity and tolerance in the embedding space. First, TimeHUT uses a hierarchical setup to learn both instance-wise and temporal information from input time-series. Next, we integrate a temperature scheduler within the vanilla contrastive loss to balance the uniformity and tolerance characteristics of the embeddings. Additionally, a hierarchical angular margin loss enforces instance-wise and temporal contrast losses, creating geometric margins between positive and negative pairs of temporal sequences. This approach improves the coherence of positive pairs and their separation from the negatives, enhancing the capture of temporal dependencies within a time-series sample. We evaluate our approach on a wide range of tasks, namely 128 UCR and 30 UAE datasets for univariate and multivariate classification, as well as Yahoo and KPI datasets for anomaly detection. The results demonstrate that TimeHUT outperforms prior methods by considerable margins on classification, while obtaining competitive results for anomaly detection. Finally, detailed sensitivity and ablation studies are performed to evaluate different components and hyperparameters of our method.
- Abstract(参考訳): コントラスト表現の階層的均一性-耐性バランスにより時系列表現を学習する新しい方法であるTimeHUTを提案する。
本手法は, 組込み空間における一様性と耐久性の効果的なバランスを打つことを目的として, 強表現の学習に2つの異なる損失を用いる。
まず、TimeHUTは階層的な設定を使用して、入力時系列からインスタンスと時間の両方の情報を学習する。
次に,バニラのコントラスト損失に温度スケジューラを組み込んで,埋め込みの均一性と耐久特性のバランスをとる。
さらに、階層的な角縁損失は、インスタンスワイドおよび時間的コントラスト損失を強制し、正と負の時間列の幾何的マージンを生成する。
このアプローチは、正のペアのコヒーレンスと負の分離を改善し、時系列サンプル内の時間的依存関係のキャプチャを高める。
我々は,一変量および多変量分類のための128のUCRデータセットと30のUAEデータセット,および異常検出のためのYahooおよびKPIデータセットについて,幅広いタスクに対するアプローチを評価した。
その結果、TimeHUTは、異常検出のための競合的な結果を得ながら、分類においてかなりのマージンで先行手法より優れていることが示された。
最後に, 本手法の各種成分および過度パラメータを評価するために, 詳細な感度およびアブレーション試験を行った。
関連論文リスト
- AHDMIL: Asymmetric Hierarchical Distillation Multi-Instance Learning for Fast and Accurate Whole-Slide Image Classification [51.525891360380285]
AHDMILは非対称な階層的蒸留マルチインスタンス学習フレームワークである。
2段階のトレーニングプロセスを通じて、無関係なパッチを排除します。
分類性能と推論速度の両方において、従来の最先端手法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-08-07T07:47:16Z) - A theoretical framework for self-supervised contrastive learning for continuous dependent data [79.62732169706054]
自己教師付き学習(SSL)は、特にコンピュータビジョンの分野で、表現を学習するための強力なアプローチとして登場した。
本稿では,サンプル間のアンフェマティック独立に適した対照的なSSLの理論的枠組みを提案する。
具体的には、標準のUEAベンチマークとUCRベンチマークでTS2Vecを上回り、それぞれ4.17$%と2.08$%の精度で改善した。
論文 参考訳(メタデータ) (2025-06-11T14:23:47Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - TimeDRL: Disentangled Representation Learning for Multivariate Time-Series [10.99576829280084]
TimeDRLは、アンタングル化されたデュアルレベル埋め込みを備えた一般的な時系列表現学習フレームワークである。
TimeDRLは、既存の表現学習アプローチを一貫して上回り、MSEでは58.02%、精度では1.48%の平均的な改善を実現している。
論文 参考訳(メタデータ) (2023-12-07T08:56:44Z) - Graph-Aware Contrasting for Multivariate Time-Series Classification [50.84488941336865]
既存のコントラスト学習手法は主に、時間的拡張とコントラスト技術による時間的一貫性を達成することに焦点を当てている。
MTSデータ間の空間的整合性を考慮したグラフ認識コントラストを提案する。
提案手法は,様々なMSS分類タスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-09-11T02:35:22Z) - CARLA: Self-supervised Contrastive Representation Learning for Time Series Anomaly Detection [53.83593870825628]
時系列異常検出(TSAD)の主な課題は、多くの実生活シナリオにおいてラベル付きデータの欠如である。
既存の異常検出手法の多くは、教師なしの方法で非ラベル時系列の正常な振る舞いを学習することに焦点を当てている。
本稿では,時系列異常検出のためのエンドツーエンドの自己教師型コントラアスティブ表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-18T04:45:56Z) - Dynamically Scaled Temperature in Self-Supervised Contrastive Learning [11.133502139934437]
本稿では,コサインの類似性に依存した温度スケーリング機能を提案することで,自己教師型学習におけるInfoNCE損失の性能向上に着目する。
実験的な証拠は、提案フレームワークが損失ベースのSSLアルゴリズムよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-02T13:31:41Z) - Multi-Task Self-Supervised Time-Series Representation Learning [3.31490164885582]
時系列表現学習は、時間的ダイナミクスとスパースラベルを持つデータから表現を抽出することができる。
自己教師型タスクの利点を組み合わせた時系列表現学習手法を提案する。
本稿では,時系列分類,予測,異常検出という3つのダウンストリームタスクの枠組みについて検討する。
論文 参考訳(メタデータ) (2023-03-02T07:44:06Z) - Rethinking Prototypical Contrastive Learning through Alignment,
Uniformity and Correlation [24.794022951873156]
我々は、アライメント、均一性、相関(PAUC)を通して、プロトタイプ表現を学ぶことを提案する。
具体的には,(1)正の原型から埋め込みを抽出するアライメント損失,(2)原型レベルの特徴を均一に分配するアライメント損失,(3)原型レベルの特徴間の多様性と識別性を増大させる相関損失を補正する。
論文 参考訳(メタデータ) (2022-10-18T22:33:12Z) - Deep Contrastive One-Class Time Series Anomaly Detection [15.27593816198766]
時系列の逆1クラス異常検出法(COCA)を著者らにより提案する。
元の表現と再構成された表現を、正対の負サンプルのないCL、すなわち「シーケンスコントラスト」として扱う。
論文 参考訳(メタデータ) (2022-07-04T15:08:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。