論文の概要: SDCUP: Schema Dependency-Enhanced Curriculum Pre-Training for Table
Semantic Parsing
- arxiv url: http://arxiv.org/abs/2111.09486v1
- Date: Thu, 18 Nov 2021 02:51:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 13:50:35.458523
- Title: SDCUP: Schema Dependency-Enhanced Curriculum Pre-Training for Table
Semantic Parsing
- Title(参考訳): SDCUP: 表セマンティック解析のためのスキーマ依存強化カリキュラム事前学習
- Authors: Bowen Qin, Lihan Wang, Binyuan Hui, Ruiying Geng, Zheng Cao, Min Yang,
Jian Sun, Yongbin Li
- Abstract要約: 本稿では,テーブル事前学習のための学習表現に所望の帰納バイアスを課すために,2つの新しい事前学習目標を設計する。
本稿では,雑音の影響を緩和し,事前学習データから容易にハードな方法で効果的に学習する,スキーマ対応のカリキュラム学習手法を提案する。
- 参考スコア(独自算出の注目度): 19.779493883522072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently pre-training models have significantly improved the performance of
various NLP tasks by leveraging large-scale text corpora to improve the
contextual representation ability of the neural network. The large pre-training
language model has also been applied in the area of table semantic parsing.
However, existing pre-training approaches have not carefully explored explicit
interaction relationships between a question and the corresponding database
schema, which is a key ingredient for uncovering their semantic and structural
correspondence. Furthermore, the question-aware representation learning in the
schema grounding context has received less attention in pre-training
objective.To alleviate these issues, this paper designs two novel pre-training
objectives to impose the desired inductive bias into the learned
representations for table pre-training. We further propose a schema-aware
curriculum learning approach to mitigate the impact of noise and learn
effectively from the pre-training data in an easy-to-hard manner. We evaluate
our pre-trained framework by fine-tuning it on two benchmarks, Spider and
SQUALL. The results demonstrate the effectiveness of our pre-training objective
and curriculum compared to a variety of baselines.
- Abstract(参考訳): 近年,ニューラルネットワークの文脈表現能力を向上させるために大規模テキストコーパスを活用することにより,各種NLPタスクの性能が大幅に向上した。
大規模な事前学習言語モデルは、テーブルセマンティックパーシングの領域にも適用されている。
しかしながら、既存の事前学習アプローチでは、質問とそれに対応するデータベーススキーマの間の明示的なインタラクション関係を慎重に検討していない。
さらに,これらの課題を軽減するために,テーブル事前学習のための学習表現に所望の帰納バイアスを課すための2つの新しい事前学習目標を設計する。
さらに,ノイズの影響を緩和し,事前学習データから容易にハードな方法で効果的に学習する,スキーマ対応のカリキュラム学習手法を提案する。
我々は、SpiderとSQUALLの2つのベンチマークでそれを微調整することで、事前学習したフレームワークを評価する。
その結果, 各種ベースラインと比較して, 事前学習目標とカリキュラムの有効性が示された。
関連論文リスト
- Pointer-Guided Pre-Training: Infusing Large Language Models with Paragraph-Level Contextual Awareness [3.2925222641796554]
ポインター誘導セグメントオーダリング(SO)は,段落レベルのテキスト表現の文脈的理解を高めることを目的とした,新しい事前学習手法である。
実験の結果,ポインタ誘導型事前学習は複雑な文書構造を理解する能力を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-06-06T15:17:51Z) - Order Matters in the Presence of Dataset Imbalance for Multilingual
Learning [53.74649778447903]
本稿では,高リソースタスクの事前学習をシンプルかつ効果的に行う方法と,高リソースタスクと低リソースタスクの混合による微調整について述べる。
ニューラルネットワーク翻訳(NMT)と多言語言語モデリングの改善について述べる。
論文 参考訳(メタデータ) (2023-12-11T05:46:57Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Continual Contrastive Finetuning Improves Low-Resource Relation
Extraction [34.76128090845668]
関係抽出は低リソースのシナリオやドメインでは特に困難である。
近年の文献は自己教師型学習によって低リソースREに取り組みつつある。
コントラスト学習の一貫した目的を用いたREモデルの事前学習と微調整を提案する。
論文 参考訳(メタデータ) (2022-12-21T07:30:22Z) - Using Context-to-Vector with Graph Retrofitting to Improve Word
Embeddings [39.30342855873457]
より文脈的な情報をSkip-gramフレームワークに組み込むことで、単語の埋め込みを改善することを目指している。
我々の手法は、基準線を大きなマージンで上回ることがよく証明されている。
論文 参考訳(メタデータ) (2022-10-30T14:15:43Z) - Forging Multiple Training Objectives for Pre-trained Language Models via
Meta-Learning [97.28779163988833]
複数の事前学習目標が単一目的言語モデリングの理解能力の欠如を埋める。
メタラーニングに基づく新しい適応型サンプリングシステムであるtextitMOMETAS を提案し,任意の事前学習対象に対して潜時サンプリングパターンを学習する。
論文 参考訳(メタデータ) (2022-10-19T04:38:26Z) - The Inductive Bias of In-Context Learning: Rethinking Pretraining
Example Design [34.900425311720795]
事前学習したNLMは、同じトレーニング例に現れるテキストセグメント間の依存関係を、異なるトレーニング例に現れるテキストセグメント間の依存性よりも強くモデル化できることを示す。
我々は「kNN-Pretraining」を提案する:同じ事前学習例に意味論的に関連のない非隣接文を含めると、文表現の改善とオープンドメイン質問応答能力が得られることを示す。
論文 参考訳(メタデータ) (2021-10-09T11:05:16Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。