論文の概要: Awakening Latent Grounding from Pretrained Language Models for Semantic
Parsing
- arxiv url: http://arxiv.org/abs/2109.10540v1
- Date: Wed, 22 Sep 2021 06:46:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:58:55.166350
- Title: Awakening Latent Grounding from Pretrained Language Models for Semantic
Parsing
- Title(参考訳): セマンティック・パーシングのための事前学習言語モデルからの潜在グラウンドの覚醒
- Authors: Qian Liu, Dejian Yang, Jiahui Zhang, Jiaqi Guo, Bin Zhou, Jian-Guang
Lou
- Abstract要約: 事前訓練された言語モデル(PLM)は、どの概念にどのトークンを基盤とするべきかを発見できることを示す。
我々のアプローチは、訓練中にそのようなラベルに晒されていなくても、人間の専門家に理解可能な潜伏基盤を覚ますことができる。
- 参考スコア(独自算出の注目度): 28.9192914266566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years pretrained language models (PLMs) hit a success on several
downstream tasks, showing their power on modeling language. To better
understand and leverage what PLMs have learned, several techniques have emerged
to explore syntactic structures entailed by PLMs. However, few efforts have
been made to explore grounding capabilities of PLMs, which are also essential.
In this paper, we highlight the ability of PLMs to discover which token should
be grounded to which concept, if combined with our proposed
erasing-then-awakening approach. Empirical studies on four datasets demonstrate
that our approach can awaken latent grounding which is understandable to human
experts, even if it is not exposed to such labels during training. More
importantly, our approach shows great potential to benefit downstream semantic
parsing models. Taking text-to-SQL as a case study, we successfully couple our
approach with two off-the-shelf parsers, obtaining an absolute improvement of
up to 9.8%.
- Abstract(参考訳): 近年、PLM(Pretrained Language Model)が下流のタスクで成功し、モデリング言語に力を発揮している。
PLMが学んだことをよりよく理解し活用するために、PLMが関連する構文構造を探索するいくつかの手法が登場した。
しかし, PLMの接地能力について検討する努力はほとんど行われていない。
本稿では,提案手法と組み合わせれば,どのトークンをどの概念に当てはめるべきかをplmが発見できることを示す。
4つのデータセットに関する実証的研究は、トレーニング中にそのようなラベルに晒されていなくても、我々のアプローチが人間の専門家に理解可能な潜伏基盤を目覚められることを示した。
さらに重要なことに、このアプローチは下流のセマンティック解析モデルに利益をもたらす大きな可能性を示しています。
ケーススタディとしてtext-to-SQLを採用して、当社のアプローチを2つの既製のパーサーと組み合わせて、最大9.8%の改善を実現しました。
関連論文リスト
- Simple Techniques for Enhancing Sentence Embeddings in Generative Language Models [3.0566617373924325]
文の埋め込みは自然言語処理の領域における基本的なタスクであり、検索エンジン、エキスパートシステム、質問・回答プラットフォームで広範囲に応用されている。
LLaMAやMistralのような大規模言語モデルの継続的な進化により、文の埋め込みに関する研究は近年顕著なブレークスルーを達成している。
PLMの生埋め込みの表現力をさらに向上する2つの革新的急進的技術技術を提案する。
論文 参考訳(メタデータ) (2024-04-05T07:07:15Z) - A Survey on Prompting Techniques in LLMs [0.0]
自己回帰型大規模言語モデルは自然言語処理のランドスケープに変化をもたらした。
本研究は,既存の文献の分類手法について紹介し,この分類法に基づく簡潔な調査を行う。
我々は、将来の研究の方向性として役立つ自己回帰型LSMの推進という領域において、いくつかの未解決の問題を特定した。
論文 参考訳(メタデータ) (2023-11-28T17:56:34Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - How Does Pretraining Improve Discourse-Aware Translation? [41.20896077662125]
本稿では,事前学習した言語モデルが会話関係の知識を捉える能力を理解するための探索タスクを提案する。
我々は、エンコーダ-、デコーダ-、およびエンコーダ-デコーダ-ベースモデルの3つの最先端PLMを検証する。
本研究は, PLMにおける言論的知識が下流作業にどのように機能するか, どのように機能するかを理解するための指導的手法である。
論文 参考訳(メタデータ) (2023-05-31T13:36:51Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z) - A Survey of Knowledge Enhanced Pre-trained Language Models [78.56931125512295]
我々は、知識強化事前学習言語モデル(KE-PLMs)の包括的なレビューを行う。
NLUでは、言語知識、テキスト知識、知識グラフ(KG)、ルール知識の4つのカテゴリに分類する。
NLGのKE-PLMは、KGベースと検索ベースに分類される。
論文 参考訳(メタデータ) (2022-11-11T04:29:02Z) - Language Model Pre-Training with Sparse Latent Typing [66.75786739499604]
そこで本研究では,多種多様な潜在型を持つ文レベルのキーワードを疎に抽出することのできる,事前学習対象Sparse Latent Typingを提案する。
実験結果から,本モデルは外部知識を使わずに,自己教師型で解釈可能な潜在型カテゴリを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T00:37:08Z) - ElitePLM: An Empirical Study on General Language Ability Evaluation of
Pretrained Language Models [78.08792285698853]
本稿では,事前学習型言語モデル(ElitePLM)の汎用言語能力評価に関する大規模実証的研究について述べる。
実験の結果,(1)訓練対象の異なるPLMは異なる能力試験に適しており,(2)下流タスクの微調整PLMはデータサイズや分布に敏感であり,(3)PLMは類似タスク間の転送性に優れていた。
論文 参考訳(メタデータ) (2022-05-03T14:18:10Z) - Knowledgeable Salient Span Mask for Enhancing Language Models as
Knowledge Base [51.55027623439027]
我々は、モデルが構造化されていないテキストから、完全に自己教師された方法でより多くの知識を学習するのを助ける2つのソリューションを開発する。
最高の知識を得るために、私たちは、継続的事前学習における知識の完全な自己教師型学習を初めて探求します。
論文 参考訳(メタデータ) (2022-04-17T12:33:34Z) - Knowledge Enhanced Pretrained Language Models: A Compreshensive Survey [8.427521246916463]
事前学習型言語モデル(PLM)は,大規模テキストコーパス上で情報表現を学習することで,新たなパラダイムを確立した。
この新しいパラダイムは、自然言語処理の分野全体に革命をもたらし、さまざまなNLPタスクに対して、新しい最先端のパフォーマンスを設定した。
この問題に対処するため, PLM への知識統合は近年, 非常に活発な研究領域となり, 様々なアプローチが開発されている。
論文 参考訳(メタデータ) (2021-10-16T03:27:56Z) - Multilingual Chart-based Constituency Parse Extraction from Pre-trained
Language Models [21.2879567125422]
本稿では,事前学習した言語モデルから完全(バイナリ)構文を抽出する手法を提案する。
本手法を多言語 PLM に適用することにより,9つの言語から文に対する非自明なパースを導き出すことができる。
論文 参考訳(メタデータ) (2020-04-08T05:42:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。