論文の概要: Context-Aware Chart Element Detection
- arxiv url: http://arxiv.org/abs/2305.04151v2
- Date: Fri, 8 Sep 2023 18:10:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 21:42:12.234852
- Title: Context-Aware Chart Element Detection
- Title(参考訳): 文脈対応チャート要素検出
- Authors: Pengyu Yan, Saleem Ahmed, David Doermann
- Abstract要約: 本稿では,コンテキスト認識型チャート要素検出のための新しい手法CACHEDを提案する。
我々は既存のチャート要素の分類を洗練し、プロット要素を除く基本要素の18のクラスを標準化する。
提案手法は,グラフ要素検出におけるコンテキストの重要性を強調し,実験における最先端性能を実現する。
- 参考スコア(独自算出の注目度): 0.22559617939136503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a prerequisite of chart data extraction, the accurate detection of chart
basic elements is essential and mandatory. In contrast to object detection in
the general image domain, chart element detection relies heavily on context
information as charts are highly structured data visualization formats. To
address this, we propose a novel method CACHED, which stands for Context-Aware
Chart Element Detection, by integrating a local-global context fusion module
consisting of visual context enhancement and positional context encoding with
the Cascade R-CNN framework. To improve the generalization of our method for
broader applicability, we refine the existing chart element categorization and
standardized 18 classes for chart basic elements, excluding plot elements. Our
CACHED method, with the updated category of chart elements, achieves
state-of-the-art performance in our experiments, underscoring the importance of
context in chart element detection. Extending our method to the bar plot
detection task, we obtain the best result on the PMC test dataset.
- Abstract(参考訳): チャートデータ抽出の前提条件として、チャートの基本要素の正確な検出が不可欠で必須である。
一般的な画像領域におけるオブジェクト検出とは対照的に、チャートは高度に構造化されたデータ視覚化フォーマットであるため、チャート要素検出はコンテキスト情報に大きく依存する。
そこで本稿では,視覚的コンテキスト拡張と位置的コンテキストエンコーディングからなるローカル・グローバルコンテキスト融合モジュールをCascade R-CNNフレームワークに統合することで,コンテキスト認識チャート要素検出のための新しい手法CACHEDを提案する。
本手法のより広い適用性を実現するため,既存のチャート要素の分類を洗練し,プロット要素を除いたチャート基本要素の18クラスを標準化した。
チャート要素を更新したCACHED法は,実験で最先端の性能を実現し,チャート要素検出におけるコンテキストの重要性を強調した。
提案手法をバープロット検出タスクに拡張し, PMCテストデータセット上で最良の結果を得る。
関連論文リスト
- ChartKG: A Knowledge-Graph-Based Representation for Chart Images [9.781118203308438]
本稿では,グラフ画像の視覚的要素と意味的関係をモデル化可能な知識グラフ(KG)に基づくグラフ表現を提案する。
一連の画像処理技術を統合して視覚要素と関係を識別する。例えば、CNNはチャートを分類し、ヨロフ5、光学文字認識はチャートを解析する。
本稿では,知識グラフに基づく表現が,グラフの詳細な視覚的要素と意味的関係をどうモデル化できるかを示す4つの事例を示す。
論文 参考訳(メタデータ) (2024-10-13T07:38:44Z) - ChartEye: A Deep Learning Framework for Chart Information Extraction [2.4936576553283287]
本研究では,グラフ情報抽出パイプラインにおける重要なステップに対するソリューションを提供する,ディープラーニングベースのフレームワークを提案する。
提案フレームワークは階層型視覚変換器をグラフ型およびテキストロール分類のタスクに用い,YOLOv7はテキスト検出に用いた。
提案手法は,F1スコアが0.97,テキストロール分類が0.91,テキスト検出が平均0.95,各段階において優れた性能を実現している。
論文 参考訳(メタデータ) (2024-08-28T20:22:39Z) - Hypergraph based Understanding for Document Semantic Entity Recognition [65.84258776834524]
我々は,ハイパグラフアテンションを利用したハイパグラフアテンション文書セマンティックエンティティ認識フレームワークHGAを構築し,エンティティ境界とエンティティカテゴリを同時に重視する。
FUNSD, CORD, XFUNDIE で得られた結果は,本手法が意味的エンティティ認識タスクの性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2024-07-09T14:35:49Z) - FlowLearn: Evaluating Large Vision-Language Models on Flowchart Understanding [52.35520385083425]
FlowLearnデータセットは、フローチャートの理解を強化するために設計されたリソースである。
科学的サブセットは、科学文献から得られた3,858のフローチャートを含んでいる。
シミュレーションされたサブセットには、カスタマイズ可能なスクリプトを使用して作成された10,000のフローチャートが含まれている。
論文 参考訳(メタデータ) (2024-07-06T20:58:51Z) - TagAlign: Improving Vision-Language Alignment with Multi-Tag Classification [59.779532652634295]
画像とテキストのペア以外の追加データフォーマットを必要とせずに、画像とテキストの特徴の整合性を向上するための、恥ずかしいほど単純なアプローチを提案する。
画像中に存在する可能性が極めて高い記述からオブジェクトや属性を解析する。
実験は、既存の代替手段よりも平均5.2%のフレームワークの改善を裏付けるものです。
論文 参考訳(メタデータ) (2023-12-21T18:59:06Z) - StructChart: Perception, Structuring, Reasoning for Visual Chart
Understanding [58.38480335579541]
現在のチャート関連タスクは、視覚チャートから情報を抽出することを参照するチャート認識か、抽出されたデータから推論を行うかに焦点を当てている。
本稿では,共同認識と推論タスクのための統一的でラベル効率のよい学習パラダイムを確立することを目的とする。
各種のチャート関連タスクで実験を行い、統合されたチャート認識推論パラダイムの有効性と有望な可能性を実証した。
論文 参考訳(メタデータ) (2023-09-20T12:51:13Z) - UniChart: A Universal Vision-language Pretrained Model for Chart
Comprehension and Reasoning [29.947053208614246]
We present UniChart, a pretrained model for chart comprehension and reasoning。
UniChartは、チャートの関連するテキスト、データ、および視覚要素をエンコードし、その後、チャートグラウンドのテキストデコーダを使用して、自然言語で期待される出力を生成する。
i) チャートから視覚要素(バーや線など)とデータを抽出する低レベルタスク、(ii) チャート理解と推論のスキルを得るための高レベルタスクなどである。
論文 参考訳(メタデータ) (2023-05-24T06:11:17Z) - Let the Chart Spark: Embedding Semantic Context into Chart with
Text-to-Image Generative Model [7.587729429265939]
画像視覚化は、データとセマンティックコンテキストを視覚表現にシームレスに統合する。
本稿では,テキストから画像への生成モデルに基づく意味コンテキストをグラフに組み込む新しいシステムであるChartSparkを提案する。
本研究では,テキストアナライザ,編集モジュール,評価モジュールを統合したインタラクティブなビジュアルインタフェースを開発し,画像視覚化の生成,修正,評価を行う。
論文 参考訳(メタデータ) (2023-04-28T05:18:30Z) - ChartReader: A Unified Framework for Chart Derendering and Comprehension
without Heuristic Rules [89.75395046894809]
ChartReaderは、チャートのデレンダリングと理解タスクをシームレスに統合する統合フレームワークです。
提案手法には,トランスフォーマーに基づくチャートコンポーネント検出モジュールと,チャートからXまでのタスクに対する事前学習型視覚言語モデルが組み込まれている。
提案するフレームワークは,チャート解析に係わる作業を大幅に削減し,ユニバーサルチャート理解モデルへの一歩を踏み出すことができる。
論文 参考訳(メタデータ) (2023-04-05T00:25:27Z) - Weakly-Supervised Salient Object Detection via Scribble Annotations [54.40518383782725]
本稿では,スクリブルラベルからサリエンシを学習するための弱教師付きサリエント物体検出モデルを提案する。
そこで本研究では,予測されたサリエンシマップの構造アライメントを測定するために,新しい尺度であるサリエンシ構造尺度を提案する。
我々の手法は、既存の弱教師付き/非教師付き手法よりも優れているだけでなく、いくつかの完全教師付き最先端モデルと同等である。
論文 参考訳(メタデータ) (2020-03-17T12:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。