論文の概要: TCube: Domain-Agnostic Neural Time-series Narration
- arxiv url: http://arxiv.org/abs/2110.05633v1
- Date: Mon, 11 Oct 2021 22:12:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 06:50:32.981159
- Title: TCube: Domain-Agnostic Neural Time-series Narration
- Title(参考訳): TCube: ドメインに依存しないニューラル時系列ナレーション
- Authors: Mandar Sharma, John S. Brownstein, Naren Ramakrishnan
- Abstract要約: 時系列ナレーションのためのドメインに依存しないニューラルネットワークであるTCubeを提案する。
TCubeは、高密度な知識グラフの形で、本質的な時系列要素の表現を2つに分けている。
TCubeは,文法的完全性を維持しつつ,生成した物語の語彙的多様性を最大65.38%向上させることができることを示す。
- 参考スコア(独自算出の注目度): 13.82622903748344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The task of generating rich and fluent narratives that aptly describe the
characteristics, trends, and anomalies of time-series data is invaluable to the
sciences (geology, meteorology, epidemiology) or finance (trades, stocks, or
sales and inventory). The efforts for time-series narration hitherto are
domain-specific and use predefined templates that offer consistency but lead to
mechanical narratives. We present TCube (Time-series-to-text), a
domain-agnostic neural framework for time-series narration, that couples the
representation of essential time-series elements in the form of a dense
knowledge graph and the translation of said knowledge graph into rich and
fluent narratives through the transfer-learning capabilities of PLMs
(Pre-trained Language Models). TCube's design primarily addresses the challenge
that lies in building a neural framework in the complete paucity of annotated
training data for time-series. The design incorporates knowledge graphs as an
intermediary for the representation of essential time-series elements which can
be linearized for textual translation. To the best of our knowledge, TCube is
the first investigation of the use of neural strategies for time-series
narration. Through extensive evaluations, we show that TCube can improve the
lexical diversity of the generated narratives by up to 65.38% while still
maintaining grammatical integrity. The practicality and deployability of TCube
is further validated through an expert review (n=21) where 76.2% of
participating experts wary of auto-generated narratives favored TCube as a
deployable system for time-series narration due to its richer narratives. Our
code-base, models, and datasets, with detailed instructions for reproducibility
is publicly hosted at https://github.com/Mandar-Sharma/TCube.
- Abstract(参考訳): 時系列データの特徴、傾向、異常を適切に記述する豊かで流動的な物語を作成する仕事は、科学(地質学、気象学、疫学)や金融(取引、株式、販売、在庫)にとって非常に重要である。
時系列ナレーションの取り組みはドメイン固有であり、一貫性を提供するが機械的な物語につながる事前定義されたテンプレートを使用する。
時系列ナレーションのためのドメイン非依存のニューラルフレームワークであるtcue (time-series-to-text) を提案する。これはplm(pre-trained language models)のトランスフォーメーション学習機能を通じて,知識グラフの高密なナレッジグラフの形式と,その知識グラフを豊かで流動的な物語に翻訳するものだ。
TCubeの設計は、主に、時系列の注釈付きトレーニングデータの完全明快さでニューラルネットワークを構築する際の課題に対処する。
この設計は知識グラフを、テキスト翻訳のために線形化できる本質的な時系列要素の表現の仲介として取り入れている。
われわれの知る限りでは、TCubeは時系列ナレーションにおけるニューラル戦略の利用に関する最初の調査である。
広範な評価を通して、tcueは文法的整合性を維持しつつ、生成した物語の語彙の多様性を最大65.38%向上できることを示した。
TCubeの実用性とデプロイ性は、専門家レビュー(n=21)を通じてさらに検証され、参加者の76.2%がTubeをよりリッチな物語のために時系列ナレーションのデプロイ可能なシステムとして好んでいる。
再現性に関する詳細な指示付きのコードベース、モデル、データセットは、https://github.com/Mandar-Sharma/TCube.comに公開されています。
関連論文リスト
- Large Language Models as Event Forecasters [10.32127659470566]
人間の出来事の鍵となる要素は、主題、関係、対象、タイムスタンプからなる四重項として抽出される。
これらの四重項または四重項は、特定の領域内で組織化されると、時間知識グラフ(TKG)を形成する。
論文 参考訳(メタデータ) (2024-06-15T04:09:31Z) - Beyond Trend and Periodicity: Guiding Time Series Forecasting with Textual Cues [9.053923035530152]
本研究は,TGTSF(Text-Guided Time Series Forecasting)タスクを紹介する。
TGTSFは、チャネル記述や動的ニュースなどのテキストキューを統合することで、従来の手法の限界に対処する。
テキストキューと時系列データを相互アテンション機構を用いて融合する,堅牢なベースラインモデルである TGForecaster を提案する。
論文 参考訳(メタデータ) (2024-05-22T10:45:50Z) - Subspace Chronicles: How Linguistic Information Emerges, Shifts and
Interacts during Language Model Training [56.74440457571821]
我々は、構文、意味論、推論を含むタスクを、200万の事前学習ステップと5つのシードで分析する。
タスクや時間にまたがる重要な学習フェーズを特定し、その間にサブスペースが出現し、情報を共有し、後に専門化するために混乱する。
この結果は,モデル解釈可能性,マルチタスク学習,限られたデータからの学習に影響を及ぼす。
論文 参考訳(メタデータ) (2023-10-25T09:09:55Z) - Leveraging Pre-trained Language Models for Time Interval Prediction in
Text-Enhanced Temporal Knowledge Graphs [1.4916971861796382]
本稿では,テキスト強調時間知識グラフ補完のための事前学習言語モデル(PLM)のパワーを利用するTEMTという新しいフレームワークを提案する。
従来のアプローチとは異なり、TEMTは異なる時間ポイント間の依存関係を効果的にキャプチャし、目に見えないエンティティの予測を可能にする。
論文 参考訳(メタデータ) (2023-09-28T11:43:49Z) - Pre-trained Language Model with Prompts for Temporal Knowledge Graph
Completion [30.50032335014021]
我々は、新しいTKGCモデル、すなわち、TKGC(PPT)のための Prompts 付き事前学習言語モデルを提案する。
サンプルの四重項を事前訓練した言語モデル入力に変換し、タイムスタンプ間の間隔を異なるプロンプトに変換することで、暗黙的な意味情報を持つ一貫性のある文を生成する。
我々のモデルは、時間的知識グラフからの情報を言語モデルに効果的に組み込むことができる。
論文 参考訳(メタデータ) (2023-05-13T12:53:11Z) - NECE: Narrative Event Chain Extraction Toolkit [64.89332212585404]
NECEはオープンアクセス型文書レベルのツールキットで,その発生の時間順に物語のイベントを自動的に抽出・アライメントする。
NECEツールキットの高品質さを示し、性別に関するナラティブバイアスを分析するために、その下流の応用を実証する。
また、現状のアプローチの欠点と、今後の研究で生成モデルを活用する可能性についてもオープンに論じる。
論文 参考訳(メタデータ) (2022-08-17T04:30:58Z) - Leveraging Natural Supervision for Language Representation Learning and
Generation [8.083109555490475]
自然発生型監視を用いて,ニューラルネットワークのトレーニングと評価を改善するための3行の作業について述べる。
まず,NLPタスクに対する事前学習言語モデルの性能向上を支援するために,自己指導型学習損失について検討する。
文表現における意味論と構文のアンタングル化にパラフレーズペアを用いるフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-21T17:26:03Z) - Neural Language Modeling for Contextualized Temporal Graph Generation [49.21890450444187]
本稿では,大規模事前学習言語モデルを用いた文書のイベントレベル時間グラフの自動生成に関する最初の研究について述べる。
論文 参考訳(メタデータ) (2020-10-20T07:08:00Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z) - Temporal Common Sense Acquisition with Minimal Supervision [77.8308414884754]
この研究は、時間的常識の明示的で暗黙的な言及を活用する新しいシーケンスモデリング手法を提案する。
本手法は,時間的共通感覚の様々な次元の質予測を行う。
また、時間比較、親子関係、イベントコア参照、時間的QAなど、関連するタスクに対するイベントの表現も生成する。
論文 参考訳(メタデータ) (2020-05-08T22:20:16Z) - Temporal Embeddings and Transformer Models for Narrative Text
Understanding [72.88083067388155]
キャラクタ関係モデリングのための物語テキスト理解のための2つのアプローチを提案する。
これらの関係の時間的進化は動的単語埋め込みによって説明され、時間とともに意味的変化を学ぶように設計されている。
最新の変換器モデルBERTに基づく教師付き学習手法を用いて文字間の静的な関係を検出する。
論文 参考訳(メタデータ) (2020-03-19T14:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。