論文の概要: LLM driven Text-to-Table Generation through Sub-Tasks Guidance and Iterative Refinement
- arxiv url: http://arxiv.org/abs/2508.08653v1
- Date: Tue, 12 Aug 2025 05:37:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.314344
- Title: LLM driven Text-to-Table Generation through Sub-Tasks Guidance and Iterative Refinement
- Title(参考訳): LLMによるサブタスク誘導と反復的リファインメントによるテキスト・ツー・テイブル生成
- Authors: Rajmohan C, Sarthak Harne, Arvind Agarwal,
- Abstract要約: 本稿では,新しいプロンプト技術を活用したLarge Language Models (LLM) によるテキスト・ツー・テーブル生成のための効率的なシステムを提案する。
このカスタムタスク分解により、モデルが段階的に問題に対処し、生成されたテーブルの品質を向上させることができることを示す。
提案手法は,パブリックドメインで利用可能な2つの複雑なテキスト・テーブル生成データセットのベースラインと比較して,強力な結果が得られる。
- 参考スコア(独自算出の注目度): 1.373677542041849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transforming unstructured text into structured data is a complex task, requiring semantic understanding, reasoning, and structural comprehension. While Large Language Models (LLMs) offer potential, they often struggle with handling ambiguous or domain-specific data, maintaining table structure, managing long inputs, and addressing numerical reasoning. This paper proposes an efficient system for LLM-driven text-to-table generation that leverages novel prompting techniques. Specifically, the system incorporates two key strategies: breaking down the text-to-table task into manageable, guided sub-tasks and refining the generated tables through iterative self-feedback. We show that this custom task decomposition allows the model to address the problem in a stepwise manner and improves the quality of the generated table. Furthermore, we discuss the benefits and potential risks associated with iterative self-feedback on the generated tables while highlighting the trade-offs between enhanced performance and computational cost. Our methods achieve strong results compared to baselines on two complex text-to-table generation datasets available in the public domain.
- Abstract(参考訳): 構造化されていないテキストを構造化データに変換するのは複雑な作業であり、意味的理解、推論、構造的理解を必要とする。
大きな言語モデル(LLM)は潜在的な可能性を提供するが、あいまいなデータやドメイン固有のデータを扱うのに苦労し、テーブル構造を維持し、長い入力を管理し、数値的な推論に対処する。
本稿では,新しいプロンプト技術を活用したLLM駆動のテキスト・ツー・テーブル生成のための効率的なシステムを提案する。
具体的には、テキストからテーブルまでのタスクを管理可能なサブタスクに分割し、反復的な自己フィードバックを通じて生成されたテーブルを精算する。
このカスタムタスク分解により、モデルが段階的に問題に対処し、生成されたテーブルの品質を向上させることができることを示す。
さらに, 性能向上と計算コストのトレードオフを強調しつつ, 生成テーブル上での反復自己フィードバックに伴うメリットと潜在的なリスクについて考察する。
提案手法は,パブリックドメインで利用可能な2つの複雑なテキスト・テーブル生成データセットのベースラインと比較して,強力な結果が得られる。
関連論文リスト
- LLM-Symbolic Integration for Robust Temporal Tabular Reasoning [69.27153114778748]
本研究では,システムおよび制御された評価のための合成データセットであるTempTabQA-Cを紹介する。
この構造化アプローチにより、LLM(Large Language Models)はsqlクエリの生成と実行を可能にし、一般化とバイアス軽減の強化を行う。
論文 参考訳(メタデータ) (2025-06-06T05:14:04Z) - Large Language Models are Good Relational Learners [55.40941576497973]
本稿では,グラフニューラルネットワーク(GNN)に基づくエンコーダを用いて,大規模言語モデル(LLM)のための構造化リレーショナルプロンプトを生成する新しいアーキテクチャであるRel-LLMを紹介する。
従来のテキストベースのシリアライズ手法とは異なり,本手法はデータベース固有の関係構造を保ちながら,LLMが複雑なエンティティ関係を処理・推論することを可能にする。
論文 参考訳(メタデータ) (2025-06-06T04:07:55Z) - Map&Make: Schema Guided Text to Table Generation [41.52038779169547]
テキスト・ツー・テイブル・ジェネレーションは情報検索に欠かせない課題である。
テキストを命題のアトミックステートメントに"識別"する汎用的なアプローチであるMap&Makeを導入する。
このアプローチは、RotowireとLivesumという2つの挑戦的なデータセットに対してテストされています。
論文 参考訳(メタデータ) (2025-05-29T07:12:46Z) - Scalable Representation Learning for Multimodal Tabular Transactions [14.18267117657451]
これらの課題に対して、革新的でスケーラブルなソリューションを提示します。
トランザクションとテキストのモダリティをインターリーブするパラメータ効率の良いデコーダを提案する。
我々は,大規模な合成決済トランザクションデータセット上でのソリューションの有効性を検証した。
論文 参考訳(メタデータ) (2024-10-10T12:18:42Z) - TACT: Advancing Complex Aggregative Reasoning with Information Extraction Tools [51.576974932743596]
大規模言語モデル(LLM)は、テキスト間の情報の集約を必要とするクエリではよく機能しないことが多い。
TACTには、1つ以上のテキストに散らばる縫合情報を要求する難しい命令が含まれている。
既存のテキストと関連するテーブルのデータセットを活用することで、このデータセットを構築します。
現代のLLMはいずれも,このデータセットでは性能が悪く,精度が38%以下であることが実証された。
論文 参考訳(メタデータ) (2024-06-05T20:32:56Z) - Structure Guided Prompt: Instructing Large Language Model in Multi-Step
Reasoning by Exploring Graph Structure of the Text [44.81698187939784]
本稿では,大規模言語モデル(LLM)の多段階推論能力向上を目的としたフレームワークであるStructure Guided Promptを紹介する。
実験の結果,このフレームワークはLLMの推論能力を大幅に向上し,より広い範囲の自然言語シナリオを拡張できることがわかった。
論文 参考訳(メタデータ) (2024-02-20T22:56:23Z) - A Simple but Effective Approach to Improve Structured Language Model
Output for Information Extraction [11.165093163378152]
大規模言語モデル(LLM)は、命令に従って非構造化自然言語を生成する際、印象的な能力を示した。
本稿では,その構造的テキスト生成能力を高めるために,効率的なG&O手法を提案する。
論文 参考訳(メタデータ) (2024-02-20T20:42:02Z) - Towards Table-to-Text Generation with Pretrained Language Model: A Table
Structure Understanding and Text Deliberating Approach [60.03002572791552]
本稿では,テーブル構造理解とテキスト検討手法,すなわちTASDを提案する。
具体的には,表構造を考慮したテキスト生成モデルを実現するために,三層多層アテンションネットワークを考案する。
われわれのアプローチは、様々な種類のテーブルに対して忠実で流動的な記述テキストを生成することができる。
論文 参考訳(メタデータ) (2023-01-05T14:03:26Z) - Optimization Techniques for Unsupervised Complex Table Reasoning via Self-Training Framework [5.351873055148804]
自己学習フレームワークは複雑な論理を持つ多様な合成データを生成する。
我々は「テーブル・テキスト・マニピュレータ(Table-Text Manipulator)」を用いて、共同テーブル・テキスト推論シナリオの処理を最適化する。
UCTRSTは、異なるタスクやドメインにおける教師付きモデルパフォーマンスの90%以上を達成する。
論文 参考訳(メタデータ) (2022-12-20T09:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。