論文の概要: Second-Order Neural Dependency Parsing with Message Passing and
End-to-End Training
- arxiv url: http://arxiv.org/abs/2010.05003v2
- Date: Wed, 2 Jun 2021 03:06:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 22:37:49.785345
- Title: Second-Order Neural Dependency Parsing with Message Passing and
End-to-End Training
- Title(参考訳): メッセージパッシングとエンドツーエンドトレーニングによる第2次ニューラル依存関係解析
- Authors: Xinyu Wang, Kewei Tu
- Abstract要約: 本稿では,メッセージパッシングとエンドツーエンドニューラルネットワークを用いた2階グラフに基づくニューラル依存解析を提案する。
我々のアプローチは、最新の最先端の2階グラフベースのニューラル依存の精度とよく一致していることを実証的に示している。
- 参考スコア(独自算出の注目度): 31.56828606891449
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we propose second-order graph-based neural dependency parsing
using message passing and end-to-end neural networks. We empirically show that
our approaches match the accuracy of very recent state-of-the-art second-order
graph-based neural dependency parsers and have significantly faster speed in
both training and testing. We also empirically show the advantage of
second-order parsing over first-order parsing and observe that the usefulness
of the head-selection structured constraint vanishes when using BERT embedding.
- Abstract(参考訳): 本稿では,メッセージパッシングとエンドツーエンドニューラルネットワークを用いた2次グラフ型ニューラル依存解析を提案する。
我々のアプローチは、最先端の2階グラフベースのニューラル依存パーサの精度に適合し、トレーニングとテストの両方で大幅に高速であることを示す。
また, 1次解析よりも2次解析の利点を実証的に示し, BERT埋め込みにおける頭部選択構造制約の有用性がなくなることを観察した。
関連論文リスト
- Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Transferring Neural Potentials For High Order Dependency Parsing [0.0]
本稿では,ビスフィンスコアを用いてアークスコアを推定し,それからグラフィカルモデルに伝播する。
グラフィカルモデル内の推論は二重分解を用いて解決される。
論文 参考訳(メタデータ) (2023-06-18T03:58:41Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Neural-Symbolic Inference for Robust Autoregressive Graph Parsing via
Compositional Uncertainty Quantification [28.084115398817016]
モデル信頼度から得られるニューラルシンボリック推論に対する構成性を考慮したアプローチについて検討する。
我々は,標準内ドメインと7つのOOD文法の多種多様なスイートにおける英語資源解析問題(ERG)のアプローチを実証的に検討した。
提案手法は, ニューラルネットワークおよび記号的アプローチに対して, 集約されたSグラマースコアの35.26%と35.60%の誤差を減少させ, ニューラルモデル上でのキーテール言語カテゴリーにおいて, 14%の絶対精度向上をもたらす。
論文 参考訳(メタデータ) (2023-01-26T23:11:03Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Learning on Arbitrary Graph Topologies via Predictive Coding [38.761663028090204]
任意のグラフトポロジで推論と学習を行うために,予測符号化がどのように使用できるかを示す。
我々は、PCグラフと呼ばれるこの定式化が、同じネットワークで異なるタスクを柔軟に実行するためにどのように使用できるかを実験的に示す。
論文 参考訳(メタデータ) (2022-01-31T12:43:22Z) - Learning compositional structures for semantic graph parsing [81.41592892863979]
本稿では、AM依存性解析をニューラル潜在変数モデルで直接トレーニングする方法を示す。
本モデルでは,いくつかの言語現象を独自に把握し,教師あり学習に匹敵する精度を達成している。
論文 参考訳(メタデータ) (2021-06-08T14:20:07Z) - Second-Order Unsupervised Neural Dependency Parsing [52.331561380948564]
ほとんどの教師なし依存は、親子情報のみを考慮した一階確率的生成モデルに基づいている。
親子や兄弟姉妹の情報を組み込んだ教師なし神経依存モデルの2階拡張を提案する。
我々のジョイントモデルは、完全なWSJテストセットにおける前の最先端技術よりも10%改善します。
論文 参考訳(メタデータ) (2020-10-28T03:01:33Z) - Training Binary Neural Networks through Learning with Noisy Supervision [76.26677550127656]
本稿では,ニューラルネットワーク上の二項化操作を学習の観点から定式化する。
ベンチマークデータセットの実験結果から,提案手法がベースラインよりも一貫した改善を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-10-10T01:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。