論文の概要: Rethinking Time Encoding via Learnable Transformation Functions
- arxiv url: http://arxiv.org/abs/2505.00887v1
- Date: Thu, 01 May 2025 22:04:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.852383
- Title: Rethinking Time Encoding via Learnable Transformation Functions
- Title(参考訳): 学習可能な変換関数による時間符号化の再考
- Authors: Xi Chen, Yateng Tang, Jiarong Xu, Jiawei Zhang, Siwei Zhang, Sijia Peng, Xuehao Zheng, Yun Xiong,
- Abstract要約: 実世界のシナリオは多様で複雑な時間パターンを伴い、時間エンコーディングメソッドに重大な課題を生じさせる。
本稿では,時間符号化における非線形変換をパラメータ化するためのディープラーニング手法を提案する。
- 参考スコア(独自算出の注目度): 19.710059031046377
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Effectively modeling time information and incorporating it into applications or models involving chronologically occurring events is crucial. Real-world scenarios often involve diverse and complex time patterns, which pose significant challenges for time encoding methods. While previous methods focus on capturing time patterns, many rely on specific inductive biases, such as using trigonometric functions to model periodicity. This narrow focus on single-pattern modeling makes them less effective in handling the diversity and complexities of real-world time patterns. In this paper, we investigate to improve the existing commonly used time encoding methods and introduce Learnable Transformation-based Generalized Time Encoding (LeTE). We propose using deep function learning techniques to parameterize non-linear transformations in time encoding, making them learnable and capable of modeling generalized time patterns, including diverse and complex temporal dynamics. By enabling learnable transformations, LeTE encompasses previous methods as specific cases and allows seamless integration into a wide range of tasks. Through extensive experiments across diverse domains, we demonstrate the versatility and effectiveness of LeTE.
- Abstract(参考訳): 時間情報を効果的にモデル化し、それを時系列的に発生したイベントを含むアプリケーションやモデルに組み込むことが重要である。
実世界のシナリオは多様で複雑な時間パターンを伴い、時間エンコーディングメソッドに重大な課題を生じさせる。
従来の手法は時間パターンのキャプチャに重点を置いていたが、多くの手法は三角関数を使って周期性をモデル化するなど、特定の帰納バイアスに依存している。
この単一パターンモデリングに焦点を絞ると、現実世界の時間パターンの多様性や複雑さを扱うのがより効果的になる。
本稿では,既存の時間符号化手法の改良と,学習可能変換に基づく一般化時間符号化(LeTE)の導入について検討する。
本稿では,時間符号化における非線形変換のパラメータ化のための深層関数学習手法を提案する。
学習可能な変換を可能にすることで、LeTEは従来のメソッドを特定のケースとして包含し、幅広いタスクへのシームレスな統合を可能にする。
多様な領域にわたる広範な実験を通して、我々はLeTEの汎用性と有効性を実証した。
関連論文リスト
- TempoGPT: Enhancing Time Series Reasoning via Quantizing Embedding [13.996105878417204]
本稿では,マルチモーダル時系列データ構築手法とマルチモーダル時系列言語モデル(TLM, TempoGPT)を提案する。
ホワイトボックスシステム内の変数-システム関係を解析することにより,複雑な推論タスクのためのマルチモーダルデータを構築する。
広範な実験により、TempoGPTは時間的情報を正確に知覚し、結論を論理的に推論し、構築された複雑な時系列推論タスクにおける最先端の処理を達成することが示されている。
論文 参考訳(メタデータ) (2025-01-13T13:47:05Z) - On the Regularization of Learnable Embeddings for Time Series Forecasting [18.069747511100132]
時系列処理のための局所学習可能な埋め込みの学習を規則化する手法について検討する。
本研究では, 局所的・大域的パラメータの組込みによる共適応を防止する手法が, この文脈において特に有効であることを示す。
論文 参考訳(メタデータ) (2024-10-18T17:30:20Z) - Unsupervised Multi-modal Feature Alignment for Time Series
Representation Learning [20.655943795843037]
異なるモダリティから符号化された時系列表現の整合と結合に焦点を当てた革新的なアプローチを導入する。
複数のモーダルから特徴を融合させる従来の手法とは対照的に,提案手法は単一時系列エンコーダを保持することにより,ニューラルアーキテクチャを単純化する。
我々のアプローチは、様々な下流タスクにまたがる既存の最先端のURLメソッドよりも優れています。
論文 参考訳(メタデータ) (2023-12-09T22:31:20Z) - UniTime: A Language-Empowered Unified Model for Cross-Domain Time Series
Forecasting [59.11817101030137]
この研究はドメイン境界を超越する統一モデルパラダイムを提唱する。
効果的なクロスドメインモデルを学ぶことは、以下の課題を提示します。
効果的なドメイン間時系列学習のためのUniTimeを提案する。
論文 参考訳(メタデータ) (2023-10-15T06:30:22Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Learning Temporal Dynamics from Cycles in Narrated Video [85.89096034281694]
時が経つにつれて世界がどのように変化するかをモデル化する学習問題に対する自己監督型ソリューションを提案します。
私たちのモデルは、前方および後方の時間を予測するためにモダリティに依存しない関数を学習します。
将来的な動作の予測や画像の時間的順序付けなど,様々なタスクに対して,学習されたダイナミクスモデルを適用する。
論文 参考訳(メタデータ) (2021-01-07T02:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。