論文の概要: Domain-Independent Automatic Generation of Descriptive Texts for Time-Series Data
- arxiv url: http://arxiv.org/abs/2409.16647v1
- Date: Wed, 25 Sep 2024 06:04:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 05:23:25.798692
- Title: Domain-Independent Automatic Generation of Descriptive Texts for Time-Series Data
- Title(参考訳): ドメインに依存しない時系列データのための記述テキストの自動生成
- Authors: Kota Dohi, Aoi Ito, Harsh Purohit, Tomoya Nishida, Takashi Endo, Yohei Kawaguchi,
- Abstract要約: 時系列データからドメインに依存しない記述テキストを生成する手法を提案する。
新たな後方アプローチを実装することで、観測データセットのための時間自動キャプションを作成する。
実験の結果,TACOデータセットを用いて学習した対照的な学習ベースモデルでは,新しいドメインにおける時系列データのための記述テキストを生成することができることがわかった。
- 参考スコア(独自算出の注目度): 5.264562311559751
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to scarcity of time-series data annotated with descriptive texts, training a model to generate descriptive texts for time-series data is challenging. In this study, we propose a method to systematically generate domain-independent descriptive texts from time-series data. We identify two distinct approaches for creating pairs of time-series data and descriptive texts: the forward approach and the backward approach. By implementing the novel backward approach, we create the Temporal Automated Captions for Observations (TACO) dataset. Experimental results demonstrate that a contrastive learning based model trained using the TACO dataset is capable of generating descriptive texts for time-series data in novel domains.
- Abstract(参考訳): 記述的テキストで注釈付けされた時系列データが不足しているため、時系列データのための記述的テキストを生成するためのモデルを訓練することは困難である。
本研究では,時系列データからドメインに依存しない記述テキストを体系的に生成する手法を提案する。
我々は、時系列データと記述テキストのペアを作成するための2つの異なるアプローチ、前方アプローチと後方アプローチを識別する。
新たな後方アプローチを実装して,TACO(Temporal Automated Captions for Observations)データセットを作成する。
実験の結果,TACOデータセットを用いて学習した対照的な学習ベースモデルでは,新しいドメインにおける時系列データのための記述テキストを生成することができることがわかった。
関連論文リスト
- Text2Freq: Learning Series Patterns from Text via Frequency Domain [8.922661807801227]
Text2Freqは、周波数領域を介してテキストと時系列データを統合したモダリティモデルである。
実物価格と合成テキストのペアデータセットによる実験により,Text2Freqが最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2024-11-01T16:11:02Z) - Metadata Matters for Time Series: Informative Forecasting with Transformers [70.38241681764738]
時系列予測のためのMetaTST(Metadata-informed Time Series Transformer)を提案する。
メタデータの非構造化の性質に取り組むため、MetaTSTは、事前に設計されたテンプレートによってそれらを自然言語に形式化する。
Transformerエンコーダは、メタデータ情報によるシーケンス表現を拡張するシリーズトークンとメタデータトークンの通信に使用される。
論文 参考訳(メタデータ) (2024-10-04T11:37:55Z) - Dataset Condensation for Time Series Classification via Dual Domain Matching [12.317728375957717]
本研究では,textittextbfTime textittextbfSeries textittextbfClassificationをDual Domain Matching経由で生成する新しいフレームワークであるtextittextbfCondensationを提案する。
提案するフレームワークは,時間領域と周波数領域の両方のサロゲート目的にマッチする凝縮データセットを生成することを目的としている。
論文 参考訳(メタデータ) (2024-03-12T02:05:06Z) - Stylized Data-to-Text Generation: A Case Study in the E-Commerce Domain [53.22419717434372]
本稿では,特定のスタイルに従ってコヒーレントテキストを生成することを目的とした新しいタスク,すなわちスタイル化されたデータ・テキスト生成を提案する。
このタスクは、生成されたテキストのロジック、構造化されていないスタイル参照、バイアスのあるトレーニングサンプルという3つの課題のため、簡単ではない。
本稿では,論理計画型データ埋め込み,マスク型スタイル埋め込み,非バイアス型スタイリングテキスト生成の3つのコンポーネントからなる,新しいスタイル付きデータ・テキスト生成モデルであるStyleD2Tを提案する。
論文 参考訳(メタデータ) (2023-05-05T03:02:41Z) - Time-aware Prompting for Text Generation [17.58231642569116]
文書作成日時などのタイムスタンプを世代システムに組み込む効果について検討する。
1) 自然言語文中の文書のタイムスタンプをエンコードするテキストプロンプト,(2) タイムスタンプを連続ベクトルに変換する線形プロンプト。
論文 参考訳(メタデータ) (2022-11-03T22:10:25Z) - Curriculum-Based Self-Training Makes Better Few-Shot Learners for
Data-to-Text Generation [56.98033565736974]
テキスト生成の困難さによって決定される並べ替え順序でラベルのないデータを活用するために,カリキュラムベースの自己学習(CBST)を提案する。
提案手法は、微調整およびタスク適応型事前学習法より優れており、データ・テキスト・ジェネレーションのわずかな設定で最先端の性能を実現することができる。
論文 参考訳(メタデータ) (2022-06-06T16:11:58Z) - Data-to-text Generation with Variational Sequential Planning [74.3955521225497]
非言語的な入力からテキスト出力を生成することを目的としたデータ・ツー・テキスト生成の課題について考察する。
協調的かつ有意義な方法で高レベルの情報を整理する責任を負う計画要素を付加したニューラルモデルを提案する。
我々は、計画と生成のステップをインターリーブしながら、構造化された変動モデルで逐次、潜在計画を推測する。
論文 参考訳(メタデータ) (2022-02-28T13:17:59Z) - Data-to-Text Generation with Iterative Text Editing [3.42658286826597]
本稿では,反復的テキスト編集に基づく新しいデータ・テキスト生成手法を提案する。
まず、自明なテンプレートを用いてデータ項目をテキストに変換し、その後、文融合タスクのために訓練されたニューラルモデルにより結果のテキストを反復的に改善する。
モデルの出力は単純で、既製の事前訓練言語モデルで再帰的にフィルタリングされる。
論文 参考訳(メタデータ) (2020-11-03T13:32:38Z) - Partially-Aligned Data-to-Text Generation with Distant Supervision [69.15410325679635]
我々はPADTG(Partially-Aligned Data-to-Text Generation)と呼ばれる新しい生成タスクを提案する。
自動的にアノテートされたデータをトレーニングに利用し、アプリケーションドメインを大幅に拡張するため、より実用的です。
我々のフレームワークは、全てのベースラインモデルより優れており、部分整合データの利用の可能性を検証する。
論文 参考訳(メタデータ) (2020-10-03T03:18:52Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z) - Human-like Time Series Summaries via Trend Utility Estimation [13.560018516096754]
本稿では,時系列の人間的な記述を生成するためのモデルを提案する。
本システムは時系列データからパターンを見つけ,人間の行動の経験的観察に基づいてこれらのパターンをランク付けする。
本システムの出力は,人間による同じデータの要約に一致させようとする時系列の自然言語記述である。
論文 参考訳(メタデータ) (2020-01-16T06:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。