論文の概要: Truth-Conditional Captioning of Time Series Data
- arxiv url: http://arxiv.org/abs/2110.01839v1
- Date: Tue, 5 Oct 2021 06:28:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 14:24:44.915779
- Title: Truth-Conditional Captioning of Time Series Data
- Title(参考訳): 時系列データの真理条件キャプション
- Authors: Harsh Jhamtani and Taylor Berg-Kirkpatrick
- Abstract要約: 本稿では,時系列における有能なパターンの自然言語記述を自動的に生成する作業について検討する。
このタスクのモデルは、ピークやディップのような高レベルなパターンを抽出できるはずである。
本稿では,まず入力時系列上で学習プログラムを実行する真理条件付き計算モデルを提案する。
提案モデルでは,モジュール型の小型かつ簡易な空間を考慮した場合であっても,高精度なキャプションを生成可能であることがわかった。
- 参考スコア(独自算出の注目度): 34.65925116012727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore the task of automatically generating natural
language descriptions of salient patterns in a time series, such as stock
prices of a company over a week. A model for this task should be able to
extract high-level patterns such as presence of a peak or a dip. While typical
contemporary neural models with attention mechanisms can generate fluent output
descriptions for this task, they often generate factually incorrect
descriptions. We propose a computational model with a truth-conditional
architecture which first runs small learned programs on the input time series,
then identifies the programs/patterns which hold true for the given input, and
finally conditions on only the chosen valid program (rather than the input time
series) to generate the output text description. A program in our model is
constructed from modules, which are small neural networks that are designed to
capture numerical patterns and temporal information. The modules are shared
across multiple programs, enabling compositionality as well as efficient
learning of module parameters. The modules, as well as the composition of the
modules, are unobserved in data, and we learn them in an end-to-end fashion
with the only training signal coming from the accompanying natural language
text descriptions. We find that the proposed model is able to generate
high-precision captions even though we consider a small and simple space of
module types.
- Abstract(参考訳): 本稿では,1週間にわたる企業の株価など,時系列における健全なパターンの自然言語記述を自動的に生成する作業について検討する。
このタスクのモデルは、ピークの存在やディップのようなハイレベルなパターンを抽出することができるべきである。
注意機構を持つ典型的な現代のニューラルモデルは、このタスクのために流線型な出力記述を生成することができるが、しばしば事実的に誤った記述を生成する。
本稿では,まず入力時系列で学習したプログラムを実行し,与えられた入力に対して真となるプログラム/パターンを特定し,最後に選択された有効なプログラム(入力時系列ではなく)のみを条件として出力テキスト記述を生成する真理条件付き計算モデルを提案する。
我々のモデルにおけるプログラムは,数値的パターンと時間的情報を捉えるように設計された小さなニューラルネットワークであるモジュールから構築される。
モジュールは複数のプログラム間で共有され、モジュールパラメータの効率的な学習を可能にする。
モジュールは、モジュールの構成だけでなく、データにもオブザーバされません。私たちは、自然言語のテキスト記述に付随するトレーニング信号だけを使って、エンドツーエンドでモジュールを学習します。
提案モデルでは,モジュール型の小型かつ単純な空間を考慮した場合であっても,高精度なキャプションを生成することができる。
関連論文リスト
- Learning to Plan for Language Modeling from Unlabeled Data [23.042650737356496]
我々は,自己指導型学習目標を用いて,将来の執筆プロセスを計画するためのモジュールを訓練する。
テキストコンテキストを考えると、この計画モジュールは、クラスタ化されたテキスト埋め込み空間のセントロイドに対応する、将来の抽象的な書き込みアクションを予測することを学習する。
論文 参考訳(メタデータ) (2024-03-31T09:04:01Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Learning Label Modular Prompts for Text Classification in the Wild [56.66187728534808]
そこで本研究では,非定常学習/テスト段階の異なるテキスト分類手法を提案する。
複雑なタスクをモジュラー成分に分解することで、そのような非定常環境下での堅牢な一般化が可能になる。
テキスト分類タスクのためのラベルモジュール型プロンプトチューニングフレームワークMODcularPROMPTを提案する。
論文 参考訳(メタデータ) (2022-11-30T16:26:38Z) - Language Model Cascades [72.18809575261498]
テスト時に1つのモデルで繰り返し対話する、あるいは複数のモデルの合成は、さらに機能を拡張する。
制御フローと動的構造を持つ場合、確率的プログラミングのテクニックが必要となる。
この観点から、スクラッチパッド/思考連鎖、検証器、STaR、選択推論、ツール利用など、いくつかの既存のテクニックを定式化します。
論文 参考訳(メタデータ) (2022-07-21T07:35:18Z) - Leveraging Locality in Abstractive Text Summarization [44.67905693077539]
制限されたコンテキストを持つモデルが、メモリ効率の低いアテンションモデルと比較して競合性能を持つかどうかを検討する。
本モデルは,局所性の原理によってグループ化された入力の一部を含む個々のページに適用される。
論文 参考訳(メタデータ) (2022-05-25T03:59:24Z) - Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods
in Natural Language Processing [78.8500633981247]
本稿では,自然言語処理における新たなパラダイムにおける研究成果の探索と整理を行う。
入力xを取り込んで出力yをP(y|x)として予測するようにモデルを訓練する従来の教師付き学習とは異なり、プロンプトベースの学習は直接テキストの確率をモデル化する言語モデルに基づいている。
論文 参考訳(メタデータ) (2021-07-28T18:09:46Z) - Exploring Software Naturalness through Neural Language Models [56.1315223210742]
ソフトウェア自然性仮説(Software Naturalness hypothesis)は、自然言語処理で使用されるのと同じ手法でプログラミング言語を理解することができると主張している。
この仮説は,事前学習されたトランスフォーマーベース言語モデルを用いて,コード解析タスクを実行することによって検討する。
論文 参考訳(メタデータ) (2020-06-22T21:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。