論文の概要: Text2Chart: A Multi-Staged Chart Generator from Natural Language Text
- arxiv url: http://arxiv.org/abs/2104.04584v1
- Date: Fri, 9 Apr 2021 19:42:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 09:12:46.590476
- Title: Text2Chart: A Multi-Staged Chart Generator from Natural Language Text
- Title(参考訳): text2chart:自然言語テキストからの多段チャート生成
- Authors: Md. Mahinur Rashid, Hasin Kawsar Jahan, Annysha Huzzat, Riyasaat Ahmed
Rahul, Tamim Bin Zakir, Farhana Meem, Md. Saddam Hossain Mukta and Swakkhar
Shatabda
- Abstract要約: Text2Chartは自然言語のテキストを入力とし、2次元チャートとして視覚化します。
チャートの軸要素を x と y のエンティティとして知られる与えられたテキストから識別する。
与えられたテキストに適したチャートタイプを生成する: bar, line, pie。
- 参考スコア(独自算出の注目度): 0.3518016233072556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generation of scientific visualization from analytical natural language text
is a challenging task. In this paper, we propose Text2Chart, a multi-staged
chart generator method. Text2Chart takes natural language text as input and
produce visualization as two-dimensional charts. Text2Chart approaches the
problem in three stages. Firstly, it identifies the axis elements of a chart
from the given text known as x and y entities. Then it finds a mapping of
x-entities with its corresponding y-entities. Next, it generates a chart type
suitable for the given text: bar, line or pie. Combination of these three
stages is capable of generating visualization from the given analytical text.
We have also constructed a dataset for this problem. Experiments show that
Text2Chart achieves best performances with BERT based encodings with LSTM
models in the first stage to label x and y entities, Random Forest classifier
for the mapping stage and fastText embedding with LSTM for the chart type
prediction. In our experiments, all the stages show satisfactory results and
effectiveness considering formation of charts from analytical text, achieving a
commendable overall performance.
- Abstract(参考訳): 解析的自然言語テキストからの科学的可視化の生成は難しい課題である。
本論文では,多段チャート生成手法であるText2Chartを提案する。
Text2Chartは自然言語のテキストを入力として、二次元チャートとして視覚化する。
text2chartは3段階問題にアプローチする。
まず、チャートの軸要素を x と y のエンティティとして知られる与えられたテキストから識別する。
すると、対応する y-元数と x-元数の写像を見つける。
次に、与えられたテキスト(バー、ライン、パイ)に適したチャートタイプを生成する。
これら3つのステージの組み合わせは、与えられた分析テキストから可視化を生成することができる。
この問題に対するデータセットも構築しました。
実験の結果, Text2Chart はまず LSTM モデルを用いた BERT ベースの符号化において,x および y エンティティのラベル付け,マッピングステージの Random Forest 分類器,チャート型予測の fastText を LSTM に埋め込み,最高のパフォーマンスを実現していることがわかった。
本実験では, 解析文からのチャート作成を考慮し, 評価可能な総合的な性能を達成し, 良好な結果と有効性を示した。
関連論文リスト
- ChartAssisstant: A Universal Chart Multimodal Language Model via
Chart-to-Table Pre-training and Multitask Instruction Tuning [54.89249749894061]
ChartAssistantは、ユニバーサルチャートの理解と推論のためのビジョン言語モデルである。
2段階のトレーニングプロセスを経て、チャートとテキストの調整のために、チャートからテーブルへのパースを事前トレーニングする。
実験により, 最先端UniChart法とChartllama法に比較して, 顕著な性能向上が得られた。
論文 参考訳(メタデータ) (2024-01-04T17:51:48Z) - ChartLlama: A Multimodal LLM for Chart Understanding and Generation [70.1393163657813]
GPT-4を利用した高品質な命令チューニングデータセットを作成する。
次に、生成したデータセットを使ってトレーニングしたマルチモーダルな大規模言語モデルであるChartLlamaを紹介します。
論文 参考訳(メタデータ) (2023-11-27T15:20:23Z) - GenPlot: Increasing the Scale and Diversity of Chart Derendering Data [0.0]
我々は、合成データを用いて、チャートデレンダリングのための何十億ものプロットを生成するプロットジェネレータであるGenPlotを提案する。
OCR-free chart-to-text translation は視覚言語タスクの最先端の結果を得た。
論文 参考訳(メタデータ) (2023-06-20T17:25:53Z) - FACTUAL: A Benchmark for Faithful and Consistent Textual Scene Graph
Parsing [66.70054075041487]
画像キャプションをシーングラフに変換する既存のシーングラフは、しばしば2種類のエラーに悩まされる。
まず、生成されたシーングラフはキャプションや対応する画像の真の意味を捉えず、忠実さの欠如をもたらす。
第二に、生成されたシーングラフは一貫性が高く、同じセマンティクスは異なるアノテーションで表される。
論文 参考訳(メタデータ) (2023-05-27T15:38:31Z) - UniChart: A Universal Vision-language Pretrained Model for Chart
Comprehension and Reasoning [29.947053208614246]
We present UniChart, a pretrained model for chart comprehension and reasoning。
UniChartは、チャートの関連するテキスト、データ、および視覚要素をエンコードし、その後、チャートグラウンドのテキストデコーダを使用して、自然言語で期待される出力を生成する。
i) チャートから視覚要素(バーや線など)とデータを抽出する低レベルタスク、(ii) チャート理解と推論のスキルを得るための高レベルタスクなどである。
論文 参考訳(メタデータ) (2023-05-24T06:11:17Z) - Stylized Data-to-Text Generation: A Case Study in the E-Commerce Domain [53.22419717434372]
本稿では,特定のスタイルに従ってコヒーレントテキストを生成することを目的とした新しいタスク,すなわちスタイル化されたデータ・テキスト生成を提案する。
このタスクは、生成されたテキストのロジック、構造化されていないスタイル参照、バイアスのあるトレーニングサンプルという3つの課題のため、簡単ではない。
本稿では,論理計画型データ埋め込み,マスク型スタイル埋め込み,非バイアス型スタイリングテキスト生成の3つのコンポーネントからなる,新しいスタイル付きデータ・テキスト生成モデルであるStyleD2Tを提案する。
論文 参考訳(メタデータ) (2023-05-05T03:02:41Z) - ChartReader: A Unified Framework for Chart Derendering and Comprehension
without Heuristic Rules [89.75395046894809]
ChartReaderは、チャートのデレンダリングと理解タスクをシームレスに統合する統合フレームワークです。
提案手法には,トランスフォーマーに基づくチャートコンポーネント検出モジュールと,チャートからXまでのタスクに対する事前学習型視覚言語モデルが組み込まれている。
提案するフレームワークは,チャート解析に係わる作業を大幅に削減し,ユニバーサルチャート理解モデルへの一歩を踏み出すことができる。
論文 参考訳(メタデータ) (2023-04-05T00:25:27Z) - Chart-to-Text: A Large-Scale Benchmark for Chart Summarization [9.647079534077472]
2つのデータセットと44,096のチャートを持つ大規模ベンチマークであるChart-to-textを提示する。
データセット構築プロセスを説明し、データセットを解析する。
論文 参考訳(メタデータ) (2022-03-12T17:01:38Z) - Learning to Generate Scene Graph from Natural Language Supervision [52.18175340725455]
シーングラフと呼ばれる画像内の局所化オブジェクトとその関係をグラフィカルに表現するために,画像と文のペアから学習する最初の方法の1つを提案する。
既製のオブジェクト検出器を利用してオブジェクトのインスタンスを識別し、ローカライズし、検出された領域のラベルとキャプションから解析された概念をマッチングし、シーングラフを学習するための"擬似ラベル"を作成する。
論文 参考訳(メタデータ) (2021-09-06T03:38:52Z) - JointGT: Graph-Text Joint Representation Learning for Text Generation
from Knowledge Graphs [44.06715423776722]
本論文では,ジョイントGTと呼ばれるグラフテキスト共同表現学習モデルを提案する。
エンコーディング中、各トランスフォーマー層にプラグインされた構造対応セマンティックアグリゲーションモジュールを考案した。
種々のKG-to-textデータセット上で,JointGTが新たな最先端性能を得ることを示す。
論文 参考訳(メタデータ) (2021-06-19T14:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。