論文の概要: Latent Diffusion for Guided Document Table Generation
- arxiv url: http://arxiv.org/abs/2408.09800v1
- Date: Mon, 19 Aug 2024 08:46:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 17:04:37.423834
- Title: Latent Diffusion for Guided Document Table Generation
- Title(参考訳): ガイド付き文書表生成のための潜時拡散
- Authors: Syed Jawwad Haider Hamdani, Saifullah Saifullah, Stefan Agne, Andreas Dengel, Sheraz Ahmed,
- Abstract要約: 本研究は,テーブル構造のための注釈付き画像を生成するための新しいアプローチを提案する。
提案手法は,物体検出モデルの訓練に使用される合成データの質を高めることを目的としている。
実験により, 提案手法は, 学習用合成データの品質を著しく向上させることを示した。
- 参考スコア(独自算出の注目度): 4.891597567642704
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Obtaining annotated table structure data for complex tables is a challenging task due to the inherent diversity and complexity of real-world document layouts. The scarcity of publicly available datasets with comprehensive annotations for intricate table structures hinders the development and evaluation of models designed for such scenarios. This research paper introduces a novel approach for generating annotated images for table structure by leveraging conditioned mask images of rows and columns through the application of latent diffusion models. The proposed method aims to enhance the quality of synthetic data used for training object detection models. Specifically, the study employs a conditioning mechanism to guide the generation of complex document table images, ensuring a realistic representation of table layouts. To evaluate the effectiveness of the generated data, we employ the popular YOLOv5 object detection model for training. The generated table images serve as valuable training samples, enriching the dataset with diverse table structures. The model is subsequently tested on the challenging pubtables-1m testset, a benchmark for table structure recognition in complex document layouts. Experimental results demonstrate that the introduced approach significantly improves the quality of synthetic data for training, leading to YOLOv5 models with enhanced performance. The mean Average Precision (mAP) values obtained on the pubtables-1m testset showcase results closely aligned with state-of-the-art methods. Furthermore, low FID results obtained on the synthetic data further validate the efficacy of the proposed methodology in generating annotated images for table structure.
- Abstract(参考訳): 複雑なテーブルに対する注釈付きテーブル構造データを取得することは、現実世界のドキュメントレイアウトに固有の多様性と複雑さのため、難しい作業である。
複雑なテーブル構造のための包括的なアノテーションを備えた公開データセットの不足は、そのようなシナリオ用に設計されたモデルの開発と評価を妨げる。
本研究では,列と列の条件付きマスク画像を利用して,テーブル構造のための注釈付き画像を生成する手法を提案する。
提案手法は,物体検出モデルの訓練に使用される合成データの質を高めることを目的としている。
具体的には、複雑な文書表画像の生成を誘導する条件付け機構を用いて、テーブルレイアウトの現実的な表現を保証する。
生成したデータの有効性を評価するために、一般的なYOLOv5オブジェクト検出モデルを用いてトレーニングを行う。
生成されたテーブルイメージは貴重なトレーニングサンプルとして機能し、さまざまなテーブル構造を持つデータセットを充実させる。
このモデルはその後、複雑なドキュメントレイアウトにおけるテーブル構造認識のベンチマークである、挑戦的なpubtables-1mテストセットでテストされる。
実験結果から, 提案手法により学習用合成データの品質が大幅に向上し, 性能が向上したYOLOv5モデルが得られた。
pubtables-1mテストセットで得られた平均平均精度(mAP)値は、最先端の手法と密接に一致した結果を示す。
さらに、合成データから得られた低FID結果により、テーブル構造に対する注釈付き画像の生成における提案手法の有効性がさらに検証された。
関連論文リスト
- Enhancing Table Representations with LLM-powered Synthetic Data Generation [0.565395466029518]
データ駆動型企業におけるデータ変換活動の文脈における表の類似性を明確に定義する。
本稿では,大規模言語モデルのコード生成とデータ操作機能を活用した,新しい合成データ生成パイプラインを提案する。
パイプラインによって生成された合成データは,提案した表類似性の定義と一致し,表表現を大幅に強化することを示す。
論文 参考訳(メタデータ) (2024-11-04T19:54:07Z) - Knowledge-Aware Reasoning over Multimodal Semi-structured Tables [85.24395216111462]
本研究では、現在のAIモデルがマルチモーダルな構造化データに基づいて知識を考慮した推論を行うことができるかどうかを検討する。
この目的のために設計された新しいデータセットであるMMTabQAを紹介する。
我々の実験は、複数のテキストと画像の入力を効果的に統合し解釈する上で、現在のAIモデルに対する重大な課題を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-08-25T15:17:43Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - 4DBInfer: A 4D Benchmarking Toolbox for Graph-Centric Predictive Modeling on Relational DBs [67.47600679176963]
RDBは、相互接続されたテーブルにまたがる膨大な量のリッチで情報的なデータを格納する。
予測機械学習モデルの進歩は、コンピュータビジョンや自然言語処理といった他の領域の進歩に遅れをとっている。
マルチテーブルデータセットをグラフに変換することを前提としたベースラインモデルのクラスを探索する。
大規模RDBデータセットと (ii) 同時予測タスクの多様なコレクションを組み立てる。
論文 参考訳(メタデータ) (2024-04-28T15:04:54Z) - Synthesizing Realistic Data for Table Recognition [4.500373384879752]
本稿では,テーブル認識に特化して設計されたアノテーションデータを合成する手法を提案する。
中国の金融発表から表の構造と内容を活用することで、我々は最初の広範囲な表アノテーションデータセットを開発した。
我々は、中国の金融発表領域における実世界の複合表の初歩的ベンチマークを確立し、このベンチマークを用いて、我々の合成データに基づいてトレーニングされたモデルの性能を評価する。
論文 参考訳(メタデータ) (2024-04-17T06:36:17Z) - Images in Discrete Choice Modeling: Addressing Data Isomorphism in
Multi-Modality Inputs [77.54052164713394]
本稿では,離散選択モデリング(DCM)と機械学習の交わりについて考察する。
本稿では,DCMフレームワーク内の従来の表型入力と同型情報を共有する高次元画像データの埋め込み結果について検討する。
論文 参考訳(メタデータ) (2023-12-22T14:33:54Z) - Zero-shot Composed Text-Image Retrieval [72.43790281036584]
合成画像検索(CIR)の問題点を考察する。
テキストや画像などのマルチモーダル情報を融合し、クエリにマッチする画像を正確に検索し、ユーザの表現能力を拡張できるモデルをトレーニングすることを目的としている。
論文 参考訳(メタデータ) (2023-06-12T17:56:01Z) - Table Detection in the Wild: A Novel Diverse Table Detection Dataset and
Method [1.3814823347690746]
テーブル検出のための大規模データセットを7万以上のサンプルで紹介する。
また、文書中のテーブル構造を検出する畳み込みニューラルネットワークを用いたベースライン結果も提示する。
論文 参考訳(メタデータ) (2022-08-31T14:20:30Z) - Data augmentation on graphs for table type classification [1.1859913430860336]
グラフニューラルネットワークを用いてテーブルの分類を行い、使用中のメッセージパッシングアルゴリズムのテーブル構造を利用する。
我々は,グラフベースの表表現に適したデータ拡張手法を提案することで,有望な予備結果を実現する。
論文 参考訳(メタデータ) (2022-08-23T21:54:46Z) - GraPPa: Grammar-Augmented Pre-Training for Table Semantic Parsing [117.98107557103877]
テーブルセマンティック解析のための効果的な事前学習手法GraPPaを提案する。
我々は、同期文脈自由文法を用いて、高自由度テーブル上に合成質問ペアを構築する。
実世界のデータを表現できるモデルの能力を維持するため、マスキング言語モデリングも含んでいる。
論文 参考訳(メタデータ) (2020-09-29T08:17:58Z) - TableNet: Deep Learning model for end-to-end Table detection and Tabular
data extraction from Scanned Document Images [18.016832803961165]
本稿では,テーブル検出と構造認識のための新しいエンドツーエンドディープラーニングモデルを提案する。
TableNetは、テーブル検出のツインタスクとテーブル構造認識の相互依存性を利用する。
提案手法は, ICDAR 2013 と Marmot Table のデータセットを用いて評価した。
論文 参考訳(メタデータ) (2020-01-06T10:25:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。