論文の概要: Setting The Table with Intent: Intent-aware Schema Generation and Editing for Literature Review Tables
- arxiv url: http://arxiv.org/abs/2507.19521v1
- Date: Fri, 18 Jul 2025 22:01:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-03 20:19:02.842895
- Title: Setting The Table with Intent: Intent-aware Schema Generation and Editing for Literature Review Tables
- Title(参考訳): インテントによるテーブルの設定:文学レビュー表のインテント対応スキーマ生成と編集
- Authors: Vishakh Padmakumar, Joseph Chee Chang, Kyle Lo, Doug Downey, Aakanksha Naik,
- Abstract要約: そこで本稿では,未注釈表コーパスを合成意図で拡張する手法を提案し,それを応用して,所定の情報要求に応じて条件付きスキーマ生成を学習するためのデータセットを作成する。
次に,LLMに基づくスキーマ編集手法を提案する。
- 参考スコア(独自算出の注目度): 37.55154887661534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing volume of academic literature makes it essential for researchers to organize, compare, and contrast collections of documents. Large language models (LLMs) can support this process by generating schemas defining shared aspects along which to compare papers. However, progress on schema generation has been slow due to: (i) ambiguity in reference-based evaluations, and (ii) lack of editing/refinement methods. Our work is the first to address both issues. First, we present an approach for augmenting unannotated table corpora with synthesized intents and apply it to create a dataset for studying schema generation conditioned on a given information need, thus reducing ambiguity. With this dataset, we show how incorporating table intents significantly improves baseline performance in reconstructing reference schemas. Next, we propose several LLM-based schema editing techniques. We start by comprehensively benchmarking several single-shot schema generation methods, including prompted LLM workflows and fine-tuned models, showing that smaller, open-weight models can be fine-tuned to be competitive with state-of-the-art prompted LLMs. Then we demonstrate that our editing techniques can further improve schemas generated by these methods.
- Abstract(参考訳): 学術文献の量の増大は、研究者が文書の収集を整理し、比較し、コントラストする上で不可欠である。
大規模言語モデル(LLM)は、論文を比較するために共有アスペクトを定義するスキーマを生成することで、このプロセスをサポートすることができる。
しかし、スキーマ生成の進捗は、以下のため遅い。
一 基準に基づく評価における曖昧さ、及び
(二)編集・補修方法の欠如。
私たちの仕事は両方の問題に最初に対処します。
まず,無意味なテーブルコーパスを合成意図で拡張する手法を提案し,それを応用して,与えられた情報要求に応じて条件付きスキーマ生成のデータセットを作成し,あいまいさを低減させる。
本データセットでは,テーブルインテントを組み込むことで参照スキーマの再構築におけるベースライン性能が大幅に向上することを示す。
次に,LLMに基づくスキーマ編集手法を提案する。
まず、LLMワークフローや微調整モデルなど、複数の単一ショットスキーマ生成手法を総合的にベンチマークし、より小さなオープンウェイトモデルが最先端のLLMと競合するように微調整できることを示します。
そして、これらの手法により生成されたスキーマをさらに改善できることを実証する。
関連論文リスト
- Beyond Isolated Dots: Benchmarking Structured Table Construction as Deep Knowledge Extraction [28.47810405584841]
Arranged and Organized extract Benchmarkは、断片化された文書を理解するための大規模言語モデルの能力を評価するために設計された。
AOEには3つの異なるドメインにまたがる11のタスクが含まれており、さまざまな入力クエリに適したコンテキスト固有のスキーマを生成するモデルが必要である。
結果は、最も先進的なモデルでさえ、かなり苦労したことを示している。
論文 参考訳(メタデータ) (2025-07-22T06:37:51Z) - Large Language Models are Good Relational Learners [55.40941576497973]
本稿では,グラフニューラルネットワーク(GNN)に基づくエンコーダを用いて,大規模言語モデル(LLM)のための構造化リレーショナルプロンプトを生成する新しいアーキテクチャであるRel-LLMを紹介する。
従来のテキストベースのシリアライズ手法とは異なり,本手法はデータベース固有の関係構造を保ちながら,LLMが複雑なエンティティ関係を処理・推論することを可能にする。
論文 参考訳(メタデータ) (2025-06-06T04:07:55Z) - SchemaGraphSQL: Efficient Schema Linking with Pathfinding Graph Algorithms for Text-to-SQL on Large-Scale Databases [1.6544167074080365]
本稿では、まず、外部キー関係に基づくスキーマグラフを構築する、ゼロショットでトレーニング不要なスキーマリンク手法を提案する。
我々は、結合すべきテーブルや列の最適なシーケンスを特定するために、古典的なパスフィニングアルゴリズムと後処理を適用する。
提案手法はBIRDベンチマークの最先端結果を実現し,従来の特殊化,微調整,複雑な多段階LCMに基づくアプローチよりも優れていた。
論文 参考訳(メタデータ) (2025-05-23T20:42:36Z) - Matchmaker: Self-Improving Large Language Model Programs for Schema Matching [60.23571456538149]
本稿では,スキーママッチングのための合成言語モデルプログラムを提案する。
Matchmakerは、ラベル付きデモを必要とせずに、ゼロショットで自己改善する。
実証的に、Matchmakerが以前のMLベースのアプローチより優れている実世界の医療スキーママッチングベンチマークを実証する。
論文 参考訳(メタデータ) (2024-10-31T16:34:03Z) - ArxivDIGESTables: Synthesizing Scientific Literature into Tables using Language Models [58.34560740973768]
本稿では,言語モデル(LM)を利用して文献レビュー表を生成するフレームワークを提案する。
ArXiv論文から抽出された2,228の文献レビューテーブルの新しいデータセットは、合計で7,542の論文を合成する。
我々は、LMが参照テーブルを再構築する能力を評価し、追加のコンテキストからこのタスクの利点を見出す。
論文 参考訳(メタデータ) (2024-10-25T18:31:50Z) - DaRec: A Disentangled Alignment Framework for Large Language Model and Recommender System [83.34921966305804]
大規模言語モデル (LLM) はレコメンデーションシステムにおいて顕著な性能を示した。
LLMと協調モデルのための新しいプラグ・アンド・プレイアライメントフレームワークを提案する。
我々の手法は既存の最先端アルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2024-08-15T15:56:23Z) - Extract, Define, Canonicalize: An LLM-based Framework for Knowledge Graph Construction [12.455647753787442]
抽出・デファイン・カノニケーズ(EDC)という3相フレームワークを提案する。
EDCはフレキシブルで、事前に定義されたターゲットスキーマが利用可能で、そうでない場合に適用される。
EDCがパラメータチューニングなしで高品質な三重項を抽出できることを実証する。
論文 参考訳(メタデータ) (2024-04-05T02:53:51Z) - HeLM: Highlighted Evidence augmented Language Model for Enhanced Table-to-Text Generation [7.69801337810352]
LLaMA2モデル上でパラメータ効率の良い微調整を行う。
我々のアプローチは、テーブル固有の行データを強調することにより、推論情報を入力に注入することである。
FetaQAデータセットとQTSummデータセットの両方で、我々のアプローチは最先端の結果を得た。
論文 参考訳(メタデータ) (2023-11-15T12:02:52Z) - Schema-adaptable Knowledge Graph Construction [47.772335354080795]
従来の知識グラフ構築(KGC)アプローチは、通常、事前定義されたスキーマの閉じたセットで静的情報抽出パラダイムに従う。
我々は,スキーマ適応型KGCと呼ばれる新しいタスクを提案する。このタスクは,動的に変化するスキーマグラフに基づいて,再学習せずにエンティティ,リレーション,イベントを継続的に抽出することを目的としている。
論文 参考訳(メタデータ) (2023-05-15T15:06:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。