論文の概要: Prompting for Numerical Sequences: A Case Study on Market Comment Generation
- arxiv url: http://arxiv.org/abs/2404.02466v1
- Date: Wed, 3 Apr 2024 05:10:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 18:29:43.553964
- Title: Prompting for Numerical Sequences: A Case Study on Market Comment Generation
- Title(参考訳): 数値シーケンスのプロンプト:市場コメント生成の事例研究
- Authors: Masayuki Kawarada, Tatsuya Ishigaki, Hiroya Takamura,
- Abstract要約: 本研究では、トークンのシーケンスやHTML、Pythonスタイルのコードなどの構造化フォーマットなど、さまざまな入力表現について検討する。
実験では、市場コメント生成の課題に焦点を当てた。
予想とは対照的に、結果から、自然言語に類似したプロンプトと、より長いフォーマットがより良い結果をもたらすことが示されている。
- 参考スコア(独自算出の注目度): 9.16376738036068
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have been applied to a wide range of data-to-text generation tasks, including tables, graphs, and time-series numerical data-to-text settings. While research on generating prompts for structured data such as tables and graphs is gaining momentum, in-depth investigations into prompting for time-series numerical data are lacking. Therefore, this study explores various input representations, including sequences of tokens and structured formats such as HTML, LaTeX, and Python-style codes. In our experiments, we focus on the task of Market Comment Generation, which involves taking a numerical sequence of stock prices as input and generating a corresponding market comment. Contrary to our expectations, the results show that prompts resembling programming languages yield better outcomes, whereas those similar to natural languages and longer formats, such as HTML and LaTeX, are less effective. Our findings offer insights into creating effective prompts for tasks that generate text from numerical sequences.
- Abstract(参考訳): 大規模言語モデル(LLM)は、テーブル、グラフ、時系列数値データ-テキスト設定を含む幅広いデータ-テキスト生成タスクに適用されている。
表やグラフなどの構造化データの生成プロンプトの研究が勢いを増している一方で,時系列数値データのプロンプトに関する詳細な調査は欠如している。
そこで本研究では,トークンのシーケンスやHTML,LaTeX,Pythonスタイルなどの構造化フォーマットなど,さまざまな入力表現について検討する。
本実験では, 株価の数値列を入力とし, 対応する市場コメントを生成する市場コメント生成の課題に着目した。
私たちの期待に反して、プログラミング言語に類似したプロンプトはより良い結果をもたらすが、HTMLやLaTeXのような自然言語や長いフォーマットに類似するものは効果が低い。
本研究は,数値列からテキストを生成するタスクに対して,効果的なプロンプトを作成するための洞察を提供する。
関連論文リスト
- Text2Freq: Learning Series Patterns from Text via Frequency Domain [8.922661807801227]
Text2Freqは、周波数領域を介してテキストと時系列データを統合したモダリティモデルである。
実物価格と合成テキストのペアデータセットによる実験により,Text2Freqが最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2024-11-01T16:11:02Z) - ChartifyText: Automated Chart Generation from Data-Involved Texts via LLM [16.87320295911898]
科学研究、経済、公衆衛生、ジャーナリズムなどの様々な応用において、関連する数値を持つ文書が広く使われている。
この研究のギャップを埋めるために、この研究はグラフを自動的に生成し、基礎となるデータとアイデアを読者に正確に伝えることを目的としている。
本稿では,Large Language Models (LLMs) を利用して複雑なデータ関連テキストを表現型チャートに変換する,新しい完全自動化アプローチであるChartifyTextを提案する。
論文 参考訳(メタデータ) (2024-10-18T09:43:30Z) - Handling Numeric Expressions in Automatic Speech Recognition [56.972851337263755]
数値表現の認識と形式化のためのケースドとエンド・ツー・エンドのアプローチを比較した。
その結果,適応型エンドツーエンドモデルでは,低レイテンシと推論コストの利点を生かして,競争性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-07-18T09:46:19Z) - PixT3: Pixel-based Table-To-Text Generation [66.96636025277536]
本稿では,線形化と入力サイズ制限の課題を克服するマルチモーダルテーブル・トゥ・テキスト・モデルPixT3を提案する。
ToTToとLogic2Textベンチマークの実験では、PixT3はテキストのみで動作するジェネレータよりも競争力があり、優れていることが示されている。
論文 参考訳(メタデータ) (2023-11-16T11:32:47Z) - QTSumm: Query-Focused Summarization over Tabular Data [58.62152746690958]
人々は主に、データ分析を行うか、特定の質問に答えるためにテーブルをコンサルティングします。
そこで本研究では,テキスト生成モデルに人間的な推論を行なわなければならない,クエリ中心のテーブル要約タスクを新たに定義する。
このタスクには,2,934テーブル上の7,111の人間注釈付きクエリ-サマリーペアを含む,QTSummという新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:43:51Z) - Few-Shot Table-to-Text Generation with Prompt Planning and Knowledge
Memorization [41.20314472839442]
数ショット設定でテーブル・ツー・テキスト生成をターゲットとするPromptMizeという新しいフレームワークを提案する。
私たちのフレームワークの設計は、プロンプトプランナーと知識アダプタの2つの側面で構成されています。
本モデルは,人的・自動的な評価によって判断される品質を著しく向上させる。
論文 参考訳(メタデータ) (2023-02-09T03:04:11Z) - Explaining Patterns in Data with Language Models via Interpretable
Autoprompting [143.4162028260874]
本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
論文 参考訳(メタデータ) (2022-10-04T18:32:14Z) - XF2T: Cross-lingual Fact-to-Text Generation for Low-Resource Languages [11.581072296148031]
拡張多言語データセット上で、人気のあるTransformerベースのテキスト生成モデルを用いて広範な研究を行う。
構造認識型入力エンコーディングとファクト認識を用いたマルチ言語 mT5 モデルにより,12言語の平均結果が得られた。
論文 参考訳(メタデータ) (2022-09-22T18:01:27Z) - Data-to-text Generation with Variational Sequential Planning [74.3955521225497]
非言語的な入力からテキスト出力を生成することを目的としたデータ・ツー・テキスト生成の課題について考察する。
協調的かつ有意義な方法で高レベルの情報を整理する責任を負う計画要素を付加したニューラルモデルを提案する。
我々は、計画と生成のステップをインターリーブしながら、構造化された変動モデルで逐次、潜在計画を推測する。
論文 参考訳(メタデータ) (2022-02-28T13:17:59Z) - HySPA: Hybrid Span Generation for Scalable Text-to-Graph Extraction [28.83525227941032]
Text-to-Graph extractは、自然言語テキストから参照と型からなる情報グラフを自動的に抽出することを目的としている。
テーブルフィリングやペアワイズスコアリングといった既存のアプローチは、様々な情報抽出タスクにおいて印象的なパフォーマンスを示している。
本稿では,情報グラフをノードとエッジの交互にマッピングするHybrid Span Generator (HySPA)を提案する。
論文 参考訳(メタデータ) (2021-06-30T06:44:22Z) - Data-to-text Generation with Macro Planning [61.265321323312286]
本稿では,マクロ計画段階のニューラルモデルと,従来の手法を連想させる生成段階を提案する。
提案手法は, 自動評価と人的評価の両面で, 競争ベースラインを上回っている。
論文 参考訳(メタデータ) (2021-02-04T16:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。