論文の概要: Unsupervised Dual Paraphrasing for Two-stage Semantic Parsing
- arxiv url: http://arxiv.org/abs/2005.13485v3
- Date: Tue, 22 Dec 2020 11:45:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 08:12:49.184908
- Title: Unsupervised Dual Paraphrasing for Two-stage Semantic Parsing
- Title(参考訳): 2段階セマンティックパーシングのための教師なしデュアルパラフレーズ
- Authors: Ruisheng Cao, Su Zhu, Chenyu Yang, Chen Liu, Rao Ma, Yanbin Zhao, Lu
Chen and Kai Yu
- Abstract要約: 非自明な人的労力を減らすための2段階意味解析フレームワークを提案する。
第1段階では、教師なしパラフレーズモデルを用いて、ラベルなし自然言語の発話を標準発話に変換する。
下流のナイーブなセマンティクスは中間出力を受け取り、ターゲット論理形式を返す。
- 参考スコア(独自算出の注目度): 41.345662724584884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One daunting problem for semantic parsing is the scarcity of annotation.
Aiming to reduce nontrivial human labor, we propose a two-stage semantic
parsing framework, where the first stage utilizes an unsupervised paraphrase
model to convert an unlabeled natural language utterance into the canonical
utterance. The downstream naive semantic parser accepts the intermediate output
and returns the target logical form. Furthermore, the entire training process
is split into two phases: pre-training and cycle learning. Three tailored
self-supervised tasks are introduced throughout training to activate the
unsupervised paraphrase model. Experimental results on benchmarks Overnight and
GeoGranno demonstrate that our framework is effective and compatible with
supervised training.
- Abstract(参考訳): 意味構文解析の厄介な問題は、アノテーションの不足である。
非自明な人的労力を減らすために,第1段階は教師なしパラフレーズモデルを用いて,未ラベルの自然言語を標準発話に変換する2段階意味解析フレームワークを提案する。
下流のナイーブなセマンティックパーサは中間出力を受け取り、ターゲット論理形式を返す。
さらに、トレーニングプロセス全体は、事前トレーニングとサイクル学習の2つのフェーズに分割される。
3つの自己教師付きタスクがトレーニングを通じて導入され、教師なしパラフレーズモデルがアクティベーションされる。
ベンチマークの実験結果とgeogrannoは、我々のフレームワークが教師付きトレーニングと効果的で互換性があることを実証した。
関連論文リスト
- Causal Unsupervised Semantic Segmentation [60.178274138753174]
教師なしセマンティックセグメンテーションは、人間のラベル付きアノテーションなしで高品質なセマンティックセマンティックセグメンテーションを実現することを目的としている。
本稿では、因果推論からの洞察を活用する新しいフレームワークCAUSE(CAusal Unsupervised Semantic sEgmentation)を提案する。
論文 参考訳(メタデータ) (2023-10-11T10:54:44Z) - Unsupervised Chunking with Hierarchical RNN [62.15060807493364]
本稿では,非階層的手法で単語をグループ化する構文的タスクであるチャンキングに対する教師なしアプローチを紹介する。
本稿では,単語-チャンク・チャンク-文合成をモデル化した2層階層型階層型リカレントニューラルネットワーク(HRNN)を提案する。
CoNLL-2000データセットの実験では、既存の教師なし手法よりも顕著な改善が見られ、フレーズF1スコアが最大6ポイント向上した。
論文 参考訳(メタデータ) (2023-09-10T02:55:12Z) - Cascading and Direct Approaches to Unsupervised Constituency Parsing on
Spoken Sentences [67.37544997614646]
本研究は,教師なし音声補聴における最初の研究である。
目的は, 音声文の階層的構文構造を, 選挙区解析木の形で決定することである。
正確なセグメンテーションだけでは、音声文を正確に解析するのに十分であることを示す。
論文 参考訳(メタデータ) (2023-03-15T17:57:22Z) - Phoneme Segmentation Using Self-Supervised Speech Models [13.956691231452336]
音素セグメンテーションのタスクに伝達学習を適用し、タスクの自己教師型事前学習において学習した表現の有用性を実証する。
我々のモデルは、事前学習で学んだ特徴を操作する戦略的に配置された畳み込みによるトランスフォーマースタイルのエンコーダを拡張している。
論文 参考訳(メタデータ) (2022-11-02T19:57:31Z) - Guiding the PLMs with Semantic Anchors as Intermediate Supervision:
Towards Interpretable Semantic Parsing [57.11806632758607]
本稿では,既存の事前学習言語モデルを階層型デコーダネットワークに組み込むことを提案する。
第一原理構造をセマンティックアンカーとすることで、2つの新しい中間管理タスクを提案する。
いくつかのセマンティック解析ベンチマークで集中的な実験を行い、我々のアプローチがベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-10-04T07:27:29Z) - Modelling continual learning in humans with Hebbian context gating and
exponentially decaying task signals [4.205692673448206]
人間は、最小限の相互干渉で連続して複数のタスクを学ぶことができるが、一度に複数のタスクを訓練すると、パフォーマンスが低下する。
本稿では,ニューラルネットワークに対する新しい計算制約を提案する。この制約は,インターリーブドトレーニングのコストを捕捉し,ネットワークが2つのタスクを連続的に学習することを可能にする。
学習中に「スラグッシュ」ユニットがスイッチコストを導入し、コンテキストキューを無視した共同表現に対して、インターリーブされたトレーニング下での表現をバイアスするのに対し、ヘビアンステップはタスクユニットから完全に干渉から保護された表現を生成する隠蔽層へのゲーティングスキームの形成を促進する。
論文 参考訳(メタデータ) (2022-03-22T09:32:06Z) - Is Supervised Syntactic Parsing Beneficial for Language Understanding?
An Empirical Investigation [71.70562795158625]
従来のNLPは、高レベルセマンティック言語理解(LU)の成功に必要な構文解析を長い間保持(教師付き)してきた。
近年のエンドツーエンドニューラルネットワークの出現、言語モデリング(LM)による自己監視、および幅広いLUタスクにおける成功は、この信念に疑問を投げかけている。
本研究では,LM-Pretrained Transformer Network の文脈における意味的LUに対する教師あり構文解析の有用性を実証的に検討する。
論文 参考訳(メタデータ) (2020-08-15T21:03:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。