論文の概要: Fine-grained Attention in Hierarchical Transformers for Tabular Time-series
- arxiv url: http://arxiv.org/abs/2406.15327v1
- Date: Fri, 21 Jun 2024 17:40:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 12:43:51.117601
- Title: Fine-grained Attention in Hierarchical Transformers for Tabular Time-series
- Title(参考訳): 階層型変圧器における細粒度注意
- Authors: Raphael Azorin, Zied Ben Houidi, Massimo Gallo, Alessandro Finamore, Pietro Michiardi,
- Abstract要約: 本研究では,行レベルと列レベルの両方のフィールドを文脈化する,きめ細かい階層モデルであるFieldyを提案する。
その結果,行ワイドと列ワイドアテンションを組み合わせることで,モデルサイズを増大させることなく性能が向上することがわかった。
- 参考スコア(独自算出の注目度): 46.96700822457507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tabular data is ubiquitous in many real-life systems. In particular, time-dependent tabular data, where rows are chronologically related, is typically used for recording historical events, e.g., financial transactions, healthcare records, or stock history. Recently, hierarchical variants of the attention mechanism of transformer architectures have been used to model tabular time-series data. At first, rows (or columns) are encoded separately by computing attention between their fields. Subsequently, encoded rows (or columns) are attended to one another to model the entire tabular time-series. While efficient, this approach constrains the attention granularity and limits its ability to learn patterns at the field-level across separate rows, or columns. We take a first step to address this gap by proposing Fieldy, a fine-grained hierarchical model that contextualizes fields at both the row and column levels. We compare our proposal against state of the art models on regression and classification tasks using public tabular time-series datasets. Our results show that combining row-wise and column-wise attention improves performance without increasing model size. Code and data are available at https://github.com/raphaaal/fieldy.
- Abstract(参考訳): タブラルデータは、多くの実生活システムにおいてユビキタスである。
特に、行が時系列的に関連付けられている時間依存の表データは、典型的には歴史的イベント、例えば、金融取引、医療記録、株価履歴を記録するために使用される。
近年,変圧器アーキテクチャのアテンション機構の階層的変化は,表型時系列データのモデル化に利用されている。
最初は、行(または列)は、フィールド間の注意を計算することによって、別々に符号化される。
その後、エンコードされた行(または列)が互いに参加し、表の時系列全体をモデル化する。
このアプローチは効率的だが、注意の粒度を制限し、異なる行や列をまたいだフィールドレベルでパターンを学習する能力を制限する。
このギャップに対処する第一歩として、行レベルと列レベルのフィールドをコンテキスト化する、きめ細かい階層モデルであるFieldyを提案します。
我々は,表表表時系列データセットを用いた回帰・分類タスクの最先端モデルに対する提案を比較検討した。
その結果,行ワイドと列ワイドアテンションを組み合わせることで,モデルサイズを増大させることなく性能が向上することがわかった。
コードとデータはhttps://github.com/raphaaal/fieldy.comで公開されている。
関連論文リスト
- TabDiff: a Multi-Modal Diffusion Model for Tabular Data Generation [91.50296404732902]
1つのモデルで表データのマルチモーダル分布をモデル化する共同拡散フレームワークであるTabDiffを紹介する。
我々の重要な革新は、数値データと分類データのための連立連続時間拡散プロセスの開発である。
TabDiffは、既存の競合ベースラインよりも優れた平均性能を実現し、ペアワイドカラム相関推定における最先端モデルよりも最大で22.5%改善されている。
論文 参考訳(メタデータ) (2024-10-27T22:58:47Z) - Table Transformers for Imputing Textual Attributes [15.823533688884105]
本稿では,TTITA(Imputing Textual Attributes)のためのテーブルトランスフォーマー(Table Transformer)という新しいエンドツーエンドアプローチを提案する。
提案手法は,リカレントニューラルネットワークやLlama2などのベースラインモデルよりも優れた性能を示す。
マルチタスク学習を組み込んで、不均一な列を同時にインプットし、テキストインプットの性能を高める。
論文 参考訳(メタデータ) (2024-08-04T19:54:12Z) - Leveraging 2D Information for Long-term Time Series Forecasting with Vanilla Transformers [55.475142494272724]
時系列予測は、様々な領域における複雑な力学の理解と予測に不可欠である。
GridTSTは、革新的な多方向性の注意を用いた2つのアプローチの利点を組み合わせたモデルである。
このモデルは、さまざまな現実世界のデータセットに対して、常に最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-05-22T16:41:21Z) - Efficient High-Resolution Time Series Classification via Attention
Kronecker Decomposition [17.71968215237596]
高分解能時系列分類は、様々な領域で詳細な時間データが利用可能になるために不可欠である。
そこで我々は,Kroneckerで分解された注目を多段階の時系列処理に向けることで,新しい時系列トランスフォーマーバックボーン(KronTime)を提案する。
4つの時系列データセットによる実験は, ベースライン法と比較して, 優れた分類結果を示し, 効率が向上した。
論文 参考訳(メタデータ) (2024-03-07T20:14:20Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - TIGER: Temporal Interaction Graph Embedding with Restarts [12.685645074210562]
時間的相互作用グラフ(TIG)は、eコマースやソーシャルネットワークなどの分野で広く使われている。
TIGは、時間とともに変化するタイムスタンプされたインタラクションイベントのシーケンスで構成される。
従来の方法は、ノード表現が最新であることを保証するために、時系列かつ連続的にイベントのシーケンスを処理しなければならない。
これにより、既存のモデルの並列化が防止され、産業アプリケーションにおける柔軟性が低下する。
論文 参考訳(メタデータ) (2023-02-13T02:29:11Z) - Attention Augmented Convolutional Transformer for Tabular Time-series [0.9137554315375922]
時系列分類は、産業データ科学において最も頻繁に実行されるタスクの1つである。
時系列データから表現を学習するための新しいスケーラブルアーキテクチャを提案する。
提案するモデルはエンドツーエンドで,カテゴリ型と連続型の両方の値入力を処理できる。
論文 参考訳(メタデータ) (2021-10-05T05:20:46Z) - IGSQL: Database Schema Interaction Graph Based Neural Model for
Context-Dependent Text-to-SQL Generation [61.09660709356527]
本稿では,データベーススキーマインタラクショングラフエンコーダを提案し,データベーススキーマ項目の履歴情報を利用する。
ベンチマークSParCおよびCoデータセットを用いて,本モデルの評価を行った。
論文 参考訳(メタデータ) (2020-11-11T12:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。