論文の概要: Generate, Transform, Answer: Question Specific Tool Synthesis for
Tabular Data
- arxiv url: http://arxiv.org/abs/2303.10138v1
- Date: Fri, 17 Mar 2023 17:26:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 13:39:30.507084
- Title: Generate, Transform, Answer: Question Specific Tool Synthesis for
Tabular Data
- Title(参考訳): 生成, 変換, 回答: 語彙データのための質問特定ツール合成
- Authors: Carlos Gemmell, Jeffrey Dalton
- Abstract要約: タブラル質問応答(TQA)は、ニューラルネットワークにとって困難な設定である。
TQAプロセステーブルは直接的に処理され、テーブルのサイズが大きくなると情報損失が発生する。
本稿では,クエリ固有のプログラムを生成して,テーブルの変換にいつ適用すればよいかを検出するツールWriterを提案する。
- 参考スコア(独自算出の注目度): 6.3455238301221675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tabular question answering (TQA) presents a challenging setting for neural
systems by requiring joint reasoning of natural language with large amounts of
semi-structured data. Unlike humans who use programmatic tools like filters to
transform data before processing, language models in TQA process tables
directly, resulting in information loss as table size increases. In this paper
we propose ToolWriter to generate query specific programs and detect when to
apply them to transform tables and align them with the TQA model's
capabilities. Focusing ToolWriter to generate row-filtering tools improves the
state-of-the-art for WikiTableQuestions and WikiSQL with the most performance
gained on long tables. By investigating headroom, our work highlights the
broader potential for programmatic tools combined with neural components to
manipulate large amounts of structured data.
- Abstract(参考訳): Tabular Question answering (TQA) は、自然言語と大量の半構造化データとの結合推論を必要とすることによって、ニューラルネットワークに挑戦的な設定を提供する。
処理前にデータ変換にフィルタのようなプログラムツールを使用する人間とは異なり、TQAプロセステーブルの言語モデルは直接的にデータ変換を行う。
本稿では,クエリ固有のプログラムを生成し,テーブルの変換にいつ適用すればよいかを検出し,TQAモデルの機能と整合させるツールWriterを提案する。
ToolWriterで行フィルタリングツールを生成することで、WikiTableQuestionsやWikiSQLの最先端性が向上する。
ヘッドルームを調査することで、我々の研究は、大量の構造化データを操作するためのプログラムツールとニューラルネットワークコンポーネントを組み合わせた幅広い可能性を強調します。
関連論文リスト
- WikiTableEdit: A Benchmark for Table Editing by Natural Language
Instruction [56.196512595940334]
本稿では,表編集作業におけるLarge Language Models(LLM)の性能について検討する。
Wikiデータセットから26,531のテーブルを活用し、6つの異なる基本操作のための自然言語命令を生成する。
WikiTableEditデータセット上でいくつかの代表的大規模言語モデルを評価し,その課題を実証する。
論文 参考訳(メタデータ) (2024-03-05T13:33:12Z) - In-Context Data Distillation with TabPFN [11.553950697974825]
In-context data distillation (ICD) は、TabPFNのコンテキストを最適化することでこれらの制約を効果的に除去する新しい手法である。
ICDにより、TabPFNは固定メモリ予算ではるかに大きなデータセットを処理でき、TabPFNの二次メモリの複雑さは向上するが、多くのチューニングステップのコストがかかる。
論文 参考訳(メタデータ) (2024-02-10T15:23:45Z) - Auto-Tables: Synthesizing Multi-Step Transformations to Relationalize
Tables without Using Examples [24.208275772387683]
Auto-Tablesは、非リレーショナルテーブルをダウンストリーム分析のための標準リレーショナルフォームに自動的に変換する。
評価の結果,Auto-Tables はテストケースの70%以上をインタラクティブな速度で変換できることがわかった。
論文 参考訳(メタデータ) (2023-07-27T00:55:54Z) - QTSumm: Query-Focused Summarization over Tabular Data [58.62152746690958]
人々は主に、データ分析を行うか、特定の質問に答えるためにテーブルをコンサルティングします。
そこで本研究では,テキスト生成モデルに人間的な推論を行なわなければならない,クエリ中心のテーブル要約タスクを新たに定義する。
このタスクには,2,934テーブル上の7,111の人間注釈付きクエリ-サマリーペアを含む,QTSummという新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:43:51Z) - OmniTab: Pretraining with Natural and Synthetic Data for Few-shot
Table-based Question Answering [106.73213656603453]
最小限のアノテーションによるテーブルベースのQAモデルを構築した。
本稿では、自然データと合成データの両方を消費する全能事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T01:23:45Z) - Table Retrieval May Not Necessitate Table-specific Model Design [83.27735758203089]
テーブル検索のタスクに焦点をあてて、"テーブル固有のモデル設計はテーブル検索に必要か?
自然質問データセット (NQ-table) の表に基づく分析の結果, 70%以上の症例では構造が無視できる役割を担っていることがわかった。
次に、テーブル構造、すなわち補助列/カラム埋め込み、ハードアテンションマスク、ソフトリレーションに基づくアテンションバイアスを明示的にエンコードする3つのモジュールを実験する。
いずれも大きな改善は得られず、テーブル固有のモデル設計がテーブル検索に不要である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:35:23Z) - ToTTo: A Controlled Table-To-Text Generation Dataset [61.83159452483026]
ToTToはオープンドメインの英語のテーブル・トゥ・テキストのデータセットで、12万以上のトレーニングサンプルがある。
本稿では、ウィキペディアから既存の候補文を直接修正するデータセット構築プロセスを紹介する。
通常流動的であるが、既存の方法は多くの場合、表がサポートしていないフレーズを幻覚させる。
論文 参考訳(メタデータ) (2020-04-29T17:53:45Z) - Multi-layer Optimizations for End-to-End Data Analytics [71.05611866288196]
代替アプローチを実現するフレームワークであるIFAQ(Iterative Functional Aggregate Queries)を紹介する。
IFAQは、特徴抽出クエリと学習タスクを、IFAQのドメイン固有言語で与えられた1つのプログラムとして扱う。
IFAQ の Scala 実装が mlpack,Scikit,特殊化を数桁で上回り,線形回帰木モデルや回帰木モデルを複数の関係データセット上で処理可能であることを示す。
論文 参考訳(メタデータ) (2020-01-10T16:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。