論文の概要: DETQUS: Decomposition-Enhanced Transformers for QUery-focused Summarization
- arxiv url: http://arxiv.org/abs/2503.05935v1
- Date: Fri, 07 Mar 2025 21:11:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:50:07.953135
- Title: DETQUS: Decomposition-Enhanced Transformers for QUery-focused Summarization
- Title(参考訳): DETQUS: QUeryに着目した要約のための分解強化変換器
- Authors: Yasir Khan, Xinlei Wu, Sangpil Youm, Justin Ho, Aryaan Shaikh, Jairo Garciga, Rohan Sharma, Bonnie J. Dorr,
- Abstract要約: 要約精度の向上を目的としたDETQUS(Decomposition-Enhanced Transformer for QUery- Focus Summarization)を導入する。
テーブルサイズを削減し、重要な情報を保持しながら、クエリ関連列のみを保持するために、大きな言語モデルを使用します。
提案手法はテーブルベースQAモデルOmnitabを用いて,ROUGE-Lスコア0.4437を達成し,従来の最先端REFACTORモデル(ROUGE-L: 0.422)を上回った。
- 参考スコア(独自算出の注目度): 0.6825805890534123
- License:
- Abstract: Query-focused tabular summarization is an emerging task in table-to-text generation that synthesizes a summary response from tabular data based on user queries. Traditional transformer-based approaches face challenges due to token limitations and the complexity of reasoning over large tables. To address these challenges, we introduce DETQUS (Decomposition-Enhanced Transformers for QUery-focused Summarization), a system designed to improve summarization accuracy by leveraging tabular decomposition alongside a fine-tuned encoder-decoder model. DETQUS employs a large language model to selectively reduce table size, retaining only query-relevant columns while preserving essential information. This strategy enables more efficient processing of large tables and enhances summary quality. Our approach, equipped with table-based QA model Omnitab, achieves a ROUGE-L score of 0.4437, outperforming the previous state-of-the-art REFACTOR model (ROUGE-L: 0.422). These results highlight DETQUS as a scalable and effective solution for query-focused tabular summarization, offering a structured alternative to more complex architectures.
- Abstract(参考訳): クエリ中心の表型要約は、ユーザクエリに基づいた表型データから要約応答を合成するテーブル・ツー・テキスト生成における新たなタスクである。
従来のトランスフォーマーベースのアプローチは、トークンの制限と大きなテーブル上の推論の複雑さのために、課題に直面している。
これらの課題に対処するために、細調整エンコーダ・デコーダモデルとともに表の分解を利用して要約精度を向上させるシステムであるDETQUS(Decomposition-Enhanced Transformer for QUery- Focus Summarization)を導入する。
DETQUSは、テーブルサイズを選択的に削減し、重要な情報を保持しながらクエリ関連カラムのみを保持するために、大きな言語モデルを採用している。
この戦略により、大きなテーブルのより効率的な処理が可能になり、要約品質が向上する。
提案手法はテーブルベースQAモデルOmnitabを用いて, ROUGE-Lスコア0.4437を達成し, 従来のREFACTORモデル(ROUGE-L: 0.422)を上回った。
これらの結果は、より複雑なアーキテクチャに対する構造化された代替手段を提供する、クエリ中心の表の要約のためのスケーラブルで効果的なソリューションとして、DETQUSを強調している。
関連論文リスト
- Reasoning-Aware Query-Focused Summarization over Multi-Table Data [1.325953054381901]
大規模言語モデル(LLM)を利用したエンドツーエンド生成フレームワークであるQueryTableSummarizer++を提案する。
本手法では,中間シリアライズステップの必要性を排除し,クエリ関連要約を直接生成する。
ベンチマークデータセットの実験では、QueryTableSummarizer++がBLEU、ROUGE、F1スコアで最先端のベースラインを大幅に上回っていることが示されている。
論文 参考訳(メタデータ) (2024-12-12T06:04:31Z) - TableRAG: Million-Token Table Understanding with Language Models [53.039560091592215]
TableRAG(TableRAG)は、LMベースのテーブル理解用に特別に設計された検索拡張生成(RAG)フレームワークである。
TableRAGは、スキーマとセル検索を組み合わせたクエリ拡張を活用して、LMにそれを提供する前に重要な情報をピンポイントする。
以上の結果から,TableRAGは検索精度が向上し,大規模テーブル理解における最先端性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-10-07T04:15:02Z) - Knowledge in Triples for LLMs: Enhancing Table QA Accuracy with Semantic Extraction [1.0968343822308813]
本稿では,表型データから直交三重項を抽出し,それを検索拡張生成(RAG)モデルに統合することにより,微調整GPT-3.5-turbo-0125モデルにより生成された応答の精度,コヒーレンス,コンテキスト的リッチ性を向上させる手法を提案する。
FeTaQAデータセットの既存のベースライン、特にSacre-BLEUとROUGEの指標に優れています。
論文 参考訳(メタデータ) (2024-09-21T16:46:15Z) - TACT: Advancing Complex Aggregative Reasoning with Information Extraction Tools [51.576974932743596]
大規模言語モデル(LLM)は、テキスト間の情報の集約を必要とするクエリではよく機能しないことが多い。
TACTには、1つ以上のテキストに散らばる縫合情報を要求する難しい命令が含まれている。
既存のテキストと関連するテーブルのデータセットを活用することで、このデータセットを構築します。
現代のLLMはいずれも,このデータセットでは性能が悪く,精度が38%以下であることが実証された。
論文 参考訳(メタデータ) (2024-06-05T20:32:56Z) - QFMTS: Generating Query-Focused Summaries over Multi-Table Inputs [63.98556480088152]
表要約は、情報を簡潔で分かりやすいテキスト要約に凝縮するための重要な課題である。
本稿では,クエリ中心のマルチテーブル要約を導入することで,これらの制約に対処する新しい手法を提案する。
提案手法は,テーブルシリアライズモジュール,要約コントローラ,および大規模言語モデルからなり,ユーザの情報要求に合わせたクエリ依存のテーブル要約を生成する。
論文 参考訳(メタデータ) (2024-05-08T15:05:55Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - QTSumm: Query-Focused Summarization over Tabular Data [58.62152746690958]
人々は主に、データ分析を行うか、特定の質問に答えるためにテーブルをコンサルティングします。
そこで本研究では,テキスト生成モデルに人間的な推論を行なわなければならない,クエリ中心のテーブル要約タスクを新たに定義する。
このタスクには,2,934テーブル上の7,111の人間注釈付きクエリ-サマリーペアを含む,QTSummという新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:43:51Z) - Mixed-modality Representation Learning and Pre-training for Joint
Table-and-Text Retrieval in OpenQA [85.17249272519626]
最適化された OpenQA Table-Text Retriever (OTTeR) を提案する。
検索中心の混合モード合成事前学習を行う。
OTTeRはOTT-QAデータセット上でのテーブル・アンド・テキスト検索の性能を大幅に改善する。
論文 参考訳(メタデータ) (2022-10-11T07:04:39Z) - STable: Table Generation Framework for Encoder-Decoder Models [5.07112098978226]
本稿では,ライン項目の抽出や共同エンティティ,関係抽出,知識ベース人口といった問題に適用可能なテキスト・ツー・テーブル・ニューラルモデルのためのフレームワークを提案する。
トレーニングは、因子化順序のすべてのランダムな置換にまたがるテーブルの内容に対する、期待されるログの類似度を最大化する。
実験では、いくつかの挑戦的なデータセットに対して最先端の結果を確立するフレームワークの実用的な価値を実証している。
論文 参考訳(メタデータ) (2022-06-08T17:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。