論文の概要: Semi-supervised Autoencoding Projective Dependency Parsing
- arxiv url: http://arxiv.org/abs/2011.00704v1
- Date: Mon, 2 Nov 2020 03:21:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 10:55:15.755638
- Title: Semi-supervised Autoencoding Projective Dependency Parsing
- Title(参考訳): 半教師付き自動符号化計画依存解析
- Authors: Xiao Zhang, Dan Goldwasser
- Abstract要約: 半教師付きグラフベースの射影依存性解析のための2つのエンドツーエンド自動符号化モデルについて述べる。
どちらのモデルも、コンテキスト情報を利用して潜伏変数にエンコードできるディープニューラルネットワーク(DNN)と、入力を再構築可能な生成モデルであるデコーダの2つの部分で構成されている。
- 参考スコア(独自算出の注目度): 33.73819721400118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe two end-to-end autoencoding models for semi-supervised
graph-based projective dependency parsing. The first model is a Locally
Autoencoding Parser (LAP) encoding the input using continuous latent variables
in a sequential manner; The second model is a Globally Autoencoding Parser
(GAP) encoding the input into dependency trees as latent variables, with exact
inference. Both models consist of two parts: an encoder enhanced by deep neural
networks (DNN) that can utilize the contextual information to encode the input
into latent variables, and a decoder which is a generative model able to
reconstruct the input. Both LAP and GAP admit a unified structure with
different loss functions for labeled and unlabeled data with shared parameters.
We conducted experiments on WSJ and UD dependency parsing data sets, showing
that our models can exploit the unlabeled data to improve the performance given
a limited amount of labeled data, and outperform a previously proposed
semi-supervised model.
- Abstract(参考訳): 半教師付きグラフベース射影依存解析のための2つのエンドツーエンドの自動エンコーディングモデルについて述べる。
第1のモデルは連続潜伏変数を用いて入力を逐次的に符号化する局所自己符号化パーサー(LAP)であり、第2のモデルは依存性ツリーへの入力を潜伏変数として正確に推論するグローバル自動符号化パーサー(GAP)である。
どちらのモデルも、文脈情報を利用して潜伏変数にエンコードできるディープニューラルネットワーク(DNN)によって強化されたエンコーダと、入力を再構築可能な生成モデルであるデコーダの2つの部分で構成されている。
lapとgapのどちらも、共有パラメータを持つラベル付きデータとラベルなしデータの損失関数が異なる統一構造を認めている。
wsj と ud の依存性解析データセットについて実験を行い,ラベルなしのデータを利用してラベル付きデータの量が限られている場合のパフォーマンスを改善し,提案する半教師付きモデルを上回ることを示した。
関連論文リスト
- Making the Most of your Model: Methods for Finetuning and Applying Pretrained Transformers [0.21756081703276003]
この論文は、この目標を前進させるモデルの方法と分析を提供する。
使用するモデルに新たな機能を追加する2つの新しいファインタニング手法を導入する。
モデルライクリフと出力品質のばらつきに関する理論的および実証的な知見を提供する。
論文 参考訳(メタデータ) (2024-08-29T03:50:24Z) - FLIP: Fine-grained Alignment between ID-based Models and Pretrained Language Models for CTR Prediction [49.510163437116645]
クリックスルーレート(CTR)予測は、パーソナライズされたオンラインサービスにおいてコア機能モジュールとして機能する。
CTR予測のための従来のIDベースのモデルは、表形式の1ホットエンコードされたID特徴を入力として取る。
事前訓練された言語モデル(PLM)は、テキストのモダリティの文を入力として取る別のパラダイムを生み出した。
本稿では,CTR予測のためのIDベースモデルと事前学習言語モデル(FLIP)間の細粒度特徴レベルのアライメントを提案する。
論文 参考訳(メタデータ) (2023-10-30T11:25:03Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Interpretable Sentence Representation with Variational Autoencoders and
Attention [0.685316573653194]
自然言語処理(NLP)における近年の表現学習技術の解釈可能性を高める手法を開発した。
変動オートエンコーダ (VAEs) は, 遅延生成因子の観測に有効である。
帰納的バイアスを持つ2つのモデルを構築し、潜在表現の情報を注釈付きデータなしで理解可能な概念に分離する。
論文 参考訳(メタデータ) (2023-05-04T13:16:15Z) - Language as a Latent Sequence: deep latent variable models for
semi-supervised paraphrase generation [47.33223015862104]
本稿では,観測されたテキストから遅延シーケンス推論を行うVSARという新しい教師なしモデルを提案する。
また、テキストペアからの情報を活用するために、提案したVSARモデルと統合するために設計されたDDLと呼ばれる新しい教師付きモデルを導入する。
実験により, このモデルを組み合わせることで, 完全データに基づく最先端の教師付きベースラインに対して, 競争性能が向上することが示唆された。
論文 参考訳(メタデータ) (2023-01-05T19:35:30Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z) - Deterministic Decoding for Discrete Data in Variational Autoencoders [5.254093731341154]
サンプリングの代わりに最上位のトークンを選択するシーケンシャルデータに対して,決定論的デコーダ(DD-VAE)を用いたVAEモデルについて検討する。
分子生成や最適化問題を含む複数のデータセット上でのDD-VAEの性能を示す。
論文 参考訳(メタデータ) (2020-03-04T16:36:52Z) - Exploring Neural Models for Parsing Natural Language into First-Order
Logic [10.62143644603835]
英文を1次論理(FOL)に解析する際のニューラルモデルの有用性について検討する。
自然言語文が与えられた場合のシーケンスマッピングタスクとしてFOL解析をモデル化し、LSTMを用いて中間表現に符号化し、次に対応するFOL式で述語を逐次生成するデコーダを用いる。
論文 参考訳(メタデータ) (2020-02-16T09:22:32Z) - Learning Autoencoders with Relational Regularization [89.53065887608088]
データ分散のオートエンコーダを学習するための新しいフレームワークを提案する。
エンフレレーショナル正規化によるモデルと対象分布の差を最小限にする
我々はこのフレームワークを2つのスケーラブルアルゴリズムで実装し、確率的および決定論的オートエンコーダの両方に適用する。
論文 参考訳(メタデータ) (2020-02-07T17:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。