論文の概要: Text2Chart: A Multi-Staged Chart Generator from Natural Language Text
- arxiv url: http://arxiv.org/abs/2104.04584v1
- Date: Fri, 9 Apr 2021 19:42:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 09:12:46.590476
- Title: Text2Chart: A Multi-Staged Chart Generator from Natural Language Text
- Title(参考訳): text2chart:自然言語テキストからの多段チャート生成
- Authors: Md. Mahinur Rashid, Hasin Kawsar Jahan, Annysha Huzzat, Riyasaat Ahmed
Rahul, Tamim Bin Zakir, Farhana Meem, Md. Saddam Hossain Mukta and Swakkhar
Shatabda
- Abstract要約: Text2Chartは自然言語のテキストを入力とし、2次元チャートとして視覚化します。
チャートの軸要素を x と y のエンティティとして知られる与えられたテキストから識別する。
与えられたテキストに適したチャートタイプを生成する: bar, line, pie。
- 参考スコア(独自算出の注目度): 0.3518016233072556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generation of scientific visualization from analytical natural language text
is a challenging task. In this paper, we propose Text2Chart, a multi-staged
chart generator method. Text2Chart takes natural language text as input and
produce visualization as two-dimensional charts. Text2Chart approaches the
problem in three stages. Firstly, it identifies the axis elements of a chart
from the given text known as x and y entities. Then it finds a mapping of
x-entities with its corresponding y-entities. Next, it generates a chart type
suitable for the given text: bar, line or pie. Combination of these three
stages is capable of generating visualization from the given analytical text.
We have also constructed a dataset for this problem. Experiments show that
Text2Chart achieves best performances with BERT based encodings with LSTM
models in the first stage to label x and y entities, Random Forest classifier
for the mapping stage and fastText embedding with LSTM for the chart type
prediction. In our experiments, all the stages show satisfactory results and
effectiveness considering formation of charts from analytical text, achieving a
commendable overall performance.
- Abstract(参考訳): 解析的自然言語テキストからの科学的可視化の生成は難しい課題である。
本論文では,多段チャート生成手法であるText2Chartを提案する。
Text2Chartは自然言語のテキストを入力として、二次元チャートとして視覚化する。
text2chartは3段階問題にアプローチする。
まず、チャートの軸要素を x と y のエンティティとして知られる与えられたテキストから識別する。
すると、対応する y-元数と x-元数の写像を見つける。
次に、与えられたテキスト(バー、ライン、パイ)に適したチャートタイプを生成する。
これら3つのステージの組み合わせは、与えられた分析テキストから可視化を生成することができる。
この問題に対するデータセットも構築しました。
実験の結果, Text2Chart はまず LSTM モデルを用いた BERT ベースの符号化において,x および y エンティティのラベル付け,マッピングステージの Random Forest 分類器,チャート型予測の fastText を LSTM に埋め込み,最高のパフォーマンスを実現していることがわかった。
本実験では, 解析文からのチャート作成を考慮し, 評価可能な総合的な性能を達成し, 良好な結果と有効性を示した。
関連論文リスト
- Text2Chart31: Instruction Tuning for Chart Generation with Automatic Feedback [37.275533538711436]
階層的なパイプラインとグラフ生成のための新しいデータセットを提案する。
私たちのデータセットであるText2Chart31には、Matplotlibライブラリを参照する31のユニークなプロットタイプが含まれています。
本稿では,人間からのフィードバックを必要とせず,グラフ生成タスクのための強化学習に基づく指導指導手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T07:25:56Z) - On Pre-training of Multimodal Language Models Customized for Chart Understanding [83.99377088129282]
本稿では,MLLMのチャート理解を改善するために必要な学習過程について考察する。
詳細なチャート理解に適したMLLMであるCHOPINLLMを紹介する。
論文 参考訳(メタデータ) (2024-07-19T17:58:36Z) - TinyChart: Efficient Chart Understanding with Visual Token Merging and Program-of-Thoughts Learning [83.58521787193293]
本稿では,3Bパラメータのみを用いたチャート理解のための効率的なMLLMであるTinyChartを提案する。
TinyChartは,1)プログラム・オブ・ソート(PoT)学習戦略による数値計算学習の負担軽減,2)ビジョン・トーケン・マージ・モジュールによる高解像度画像のためのビジョン・トランスフォーマーによって生成される長大な視覚特徴系列の削減という,効率的なチャート理解における2つの課題を克服した。
論文 参考訳(メタデータ) (2024-04-25T14:23:24Z) - ChartAssisstant: A Universal Chart Multimodal Language Model via
Chart-to-Table Pre-training and Multitask Instruction Tuning [54.89249749894061]
ChartAssistantは、ユニバーサルチャートの理解と推論のためのビジョン言語モデルである。
2段階のトレーニングプロセスを経て、チャートとテキストの調整のために、チャートからテーブルへのパースを事前トレーニングする。
実験により, 最先端UniChart法とChartllama法に比較して, 顕著な性能向上が得られた。
論文 参考訳(メタデータ) (2024-01-04T17:51:48Z) - ChartLlama: A Multimodal LLM for Chart Understanding and Generation [70.1393163657813]
GPT-4を利用した高品質な命令チューニングデータセットを作成する。
次に、生成したデータセットを使ってトレーニングしたマルチモーダルな大規模言語モデルであるChartLlamaを紹介します。
論文 参考訳(メタデータ) (2023-11-27T15:20:23Z) - GenPlot: Increasing the Scale and Diversity of Chart Derendering Data [0.0]
我々は、合成データを用いて、チャートデレンダリングのための何十億ものプロットを生成するプロットジェネレータであるGenPlotを提案する。
OCR-free chart-to-text translation は視覚言語タスクの最先端の結果を得た。
論文 参考訳(メタデータ) (2023-06-20T17:25:53Z) - UniChart: A Universal Vision-language Pretrained Model for Chart
Comprehension and Reasoning [29.947053208614246]
We present UniChart, a pretrained model for chart comprehension and reasoning。
UniChartは、チャートの関連するテキスト、データ、および視覚要素をエンコードし、その後、チャートグラウンドのテキストデコーダを使用して、自然言語で期待される出力を生成する。
i) チャートから視覚要素(バーや線など)とデータを抽出する低レベルタスク、(ii) チャート理解と推論のスキルを得るための高レベルタスクなどである。
論文 参考訳(メタデータ) (2023-05-24T06:11:17Z) - ChartReader: A Unified Framework for Chart Derendering and Comprehension
without Heuristic Rules [89.75395046894809]
ChartReaderは、チャートのデレンダリングと理解タスクをシームレスに統合する統合フレームワークです。
提案手法には,トランスフォーマーに基づくチャートコンポーネント検出モジュールと,チャートからXまでのタスクに対する事前学習型視覚言語モデルが組み込まれている。
提案するフレームワークは,チャート解析に係わる作業を大幅に削減し,ユニバーサルチャート理解モデルへの一歩を踏み出すことができる。
論文 参考訳(メタデータ) (2023-04-05T00:25:27Z) - Chart-to-Text: A Large-Scale Benchmark for Chart Summarization [9.647079534077472]
2つのデータセットと44,096のチャートを持つ大規模ベンチマークであるChart-to-textを提示する。
データセット構築プロセスを説明し、データセットを解析する。
論文 参考訳(メタデータ) (2022-03-12T17:01:38Z) - Learning to Generate Scene Graph from Natural Language Supervision [52.18175340725455]
シーングラフと呼ばれる画像内の局所化オブジェクトとその関係をグラフィカルに表現するために,画像と文のペアから学習する最初の方法の1つを提案する。
既製のオブジェクト検出器を利用してオブジェクトのインスタンスを識別し、ローカライズし、検出された領域のラベルとキャプションから解析された概念をマッチングし、シーングラフを学習するための"擬似ラベル"を作成する。
論文 参考訳(メタデータ) (2021-09-06T03:38:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。