論文の概要: iTBLS: A Dataset of Interactive Conversations Over Tabular Information
- arxiv url: http://arxiv.org/abs/2404.12580v1
- Date: Fri, 19 Apr 2024 02:11:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-22 16:24:58.674911
- Title: iTBLS: A Dataset of Interactive Conversations Over Tabular Information
- Title(参考訳): ITBLS: 語彙情報に関する対話型会話のデータセット
- Authors: Anirudh Sundar, Christopher Richardson, William Gay, Larry Heck,
- Abstract要約: iTBLSは、科学論文の表にある対話的な会話のデータセットである。
iTBLSは相互作用の範囲を広げ、数学的推論、自然言語操作、既存のテーブルを自然言語会話から拡張する。
- 参考スコア(独自算出の注目度): 2.9665568096804846
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces Interactive Tables (iTBLS), a dataset of interactive conversations situated in tables from scientific articles. This dataset is designed to facilitate human-AI collaborative problem-solving through AI-powered multi-task tabular capabilities. In contrast to prior work that models interactions as factoid QA or procedure synthesis, iTBLS broadens the scope of interactions to include mathematical reasoning, natural language manipulation, and expansion of existing tables from natural language conversation by delineating interactions into one of three tasks: interpretation, modification, or generation. Additionally, the paper presents a suite of baseline approaches to iTBLS, utilizing zero-shot prompting and parameter-efficient fine-tuning for different computing situations. We also introduce a novel multi-step approach and show how it can be leveraged in conjunction with parameter-efficient fine-tuning to achieve the state-of-the-art on iTBLS; outperforming standard parameter-efficient fine-tuning by up to 15% on interpretation, 18% on modification, and 38% on generation.
- Abstract(参考訳): 本稿では, 対話型対話のデータセットであるInteractive Tables (iTBLS) について, 論文から紹介する。
このデータセットは、AIを使ったマルチタスクタブ機能を通じて、人間とAIの協調的な問題解決を容易にするように設計されている。
ファクトイドのQAやプロシージャ合成として相互作用をモデル化する以前の研究とは対照的に、ITBLSは、相互作用を解釈、修正、生成の3つのタスクの1つに分類することで、数学的推論、自然言語操作、既存のテーブルの自然言語会話からの拡張を含む、相互作用の範囲を広げている。
さらに, ゼロショットプロンプトとパラメータ効率の異なる微調整を利用して, ITBLS に対するベースラインアプローチのスイートを提案する。
また、新しい多段階アプローチを導入し、パラメータ効率のよい微調整と組み合わせて、ITBLSの最先端技術を実現する方法を示し、標準パラメータ効率の微調整を解釈で15%、修正で18%、生成で38%向上させる。
関連論文リスト
- Making Pre-trained Language Models Great on Tabular Prediction [50.70574370855663]
ディープニューラルネットワーク(DNN)の転送性は、画像および言語処理において著しく進歩している。
本稿では,表型データ予測のための訓練済みLMであるTP-BERTaを提案する。
新たな相対等級トークン化では、スカラー数値の特徴値を細分化した高次元トークンに変換し、特徴値と対応する特徴名を統合する。
論文 参考訳(メタデータ) (2024-03-04T08:38:56Z) - TAP4LLM: Table Provider on Sampling, Augmenting, and Packing
Semi-structured Data for Large Language Model Reasoning [58.11442663694328]
テーブルプロンプトを生成するための多用途前処理ツールボックスとして,TAP4LLMを提案する。
各モジュールにおいて、様々なシナリオで使用されるいくつかの一般的なメソッドを収集し、設計する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - Syntax and Semantics Meet in the "Middle": Probing the Syntax-Semantics
Interface of LMs Through Agentivity [68.8204255655161]
このような相互作用を探索するためのケーススタディとして,作用性のセマンティックな概念を提示する。
これは、LMが言語アノテーション、理論テスト、発見のためのより有用なツールとして役立つ可能性を示唆している。
論文 参考訳(メタデータ) (2023-05-29T16:24:01Z) - Dynamic Prompt Learning via Policy Gradient for Semi-structured
Mathematical Reasoning [150.17907456113537]
数学的な推論を必要とする38,431のグレードレベルの問題を含む新しいデータセットであるTabular Math Word Problems (TabMWP)を提案する。
我々は,GPT-3モデルを含む,TabMWP上での事前学習モデルの評価を行った。
本稿では、ポリシー勾配を利用して、少量のトレーニングデータからコンテキスト内サンプルを選択する新しいアプローチ、PromptPGを提案する。
論文 参考訳(メタデータ) (2022-09-29T08:01:04Z) - Towards Transparent Interactive Semantic Parsing via Step-by-Step
Correction [17.000283696243564]
自然言語における予測論理形式を段階的に説明する対話型意味解析フレームワークについて検討する。
フレームワークのインスタンス化として,知識ベース(KBQA)に対する質問応答に注目した。
実験の結果,人間のフィードバックによる対話型フレームワークは,全体の解析精度を大幅に向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2021-10-15T20:11:22Z) - Dynamic Hybrid Relation Network for Cross-Domain Context-Dependent
Semantic Parsing [52.24507547010127]
ドメイン間コンテキスト依存のセマンティック解析は研究の新たな焦点である。
本稿では,コンテキストの発話,トークン,データベーススキーマ,会話の進行に伴う複雑なインタラクションを効果的にモデル化する動的グラフフレームワークを提案する。
提案したフレームワークは既存のモデルを大きなマージンで上回り、2つの大規模ベンチマークで新しい最先端性能を達成する。
論文 参考訳(メタデータ) (2021-01-05T18:11:29Z) - GraPPa: Grammar-Augmented Pre-Training for Table Semantic Parsing [117.98107557103877]
テーブルセマンティック解析のための効果的な事前学習手法GraPPaを提案する。
我々は、同期文脈自由文法を用いて、高自由度テーブル上に合成質問ペアを構築する。
実世界のデータを表現できるモデルの能力を維持するため、マスキング言語モデリングも含んでいる。
論文 参考訳(メタデータ) (2020-09-29T08:17:58Z) - DialBERT: A Hierarchical Pre-Trained Model for Conversation
Disentanglement [47.403802900555576]
そこで我々は,DialBERT (DialBERT) という新しいモデルを提案する。このモデルでは,局所的およびグローバルなセマンティクスを単一のメッセージストリームに統合し,混在する会話をアンハングリングする。
BERTを用いて発話レベルの各発話ペアのマッチング情報をキャプチャし、BiLSTMを用いてコンテキストレベルの情報を集約し、組み込む。
パラメータがわずか3%増加しただけで、F1-Scoreに基づくBERTと比較して12%の改善が達成された。
論文 参考訳(メタデータ) (2020-04-08T00:54:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。