論文の概要: Please Mind the Root: Decoding Arborescences for Dependency Parsing
- arxiv url: http://arxiv.org/abs/2010.02550v2
- Date: Wed, 7 Oct 2020 08:12:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 06:49:26.973376
- Title: Please Mind the Root: Decoding Arborescences for Dependency Parsing
- Title(参考訳): 根元を心に留めてください: 依存構文解析のためのarborescencesのデコード
- Authors: Ran Zmigrod, Tim Vieira, Ryan Cotterell
- Abstract要約: 我々はUniversal Dependency Treebankから多くの言語における最先端の出力を分析する。
最悪の制約違反率は24%です。
- 参考スコア(独自算出の注目度): 67.71280539312536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The connection between dependency trees and spanning trees is exploited by
the NLP community to train and to decode graph-based dependency parsers.
However, the NLP literature has missed an important difference between the two
structures: only one edge may emanate from the root in a dependency tree. We
analyzed the output of state-of-the-art parsers on many languages from the
Universal Dependency Treebank: although these parsers are often able to learn
that trees which violate the constraint should be assigned lower probabilities,
their ability to do so unsurprisingly de-grades as the size of the training set
decreases. In fact, the worst constraint-violation rate we observe is 24%.
Prior work has proposed an inefficient algorithm to enforce the constraint,
which adds a factor of n to the decoding runtime. We adapt an algorithm due to
Gabow and Tarjan (1984) to dependency parsing, which satisfies the constraint
without compromising the original runtime.
- Abstract(参考訳): 依存性ツリーとスパンニングツリーの接続は、NLPコミュニティによって、グラフベースの依存性パーサのトレーニングとデコードに利用される。
しかし、NLPの文献は2つの構造の間に重要な違いを欠いている。
我々は,Universal Dependency Treebankの多くの言語における最先端のパーサーの出力を分析した。これらのパーサーは,制約に反する木が低い確率で割り当てられるべきであることをしばしば学べるが,トレーニングセットのサイズが小さくなるにつれて,予想以上に劣化する可能性がある。
実際、私たちが観察する最悪の制約違反率は24%です。
以前の研究では、制約を強制する非効率なアルゴリズムが提案されており、デコードランタイムにnの要素が加えられている。
gabow と tarjan (1984) によるアルゴリズムを依存構文解析に適用し、元のランタイムを妥協することなく制約を満たす。
関連論文リスト
- Hexatagging: Projective Dependency Parsing as Tagging [63.5392760743851]
文中の単語を有限個の可能なタグの要素でタグ付けすることで、依存関係木を構成する新しい依存性であるヘキサトガーを導入する。
私たちのアプローチは、トレーニング時に完全に並列化可能です。すなわち、依存関係のパースを構築するのに必要な構造構築アクションは、互いに並列に予測できます。
我々はPenn Treebankテストセット上で96.4 LASと97.4 UASの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-08T18:02:07Z) - Hierarchical Dependency Constrained Tree Augmented Naive Bayes
Classifiers for Hierarchical Feature Spaces [0.0]
階層的依存性に基づく2つの新しいツリー拡張ネイブベイズアルゴリズム,すなわちHie-TANとHie-TAN-Liteを提案する。
Hie-TANは、他の階層的依存制約分類アルゴリズムよりも優れた予測性能を得た。
論文 参考訳(メタデータ) (2022-02-08T19:16:51Z) - Biaffine Discourse Dependency Parsing [0.0]
本稿では,バイファインモデルを用いてニューラルな談話依存解析を行い,ベースラインと比較して大幅な性能向上を実現した。
タスクにおけるアイズナーアルゴリズムとチュ・リュー・エドモンドスアルゴリズムを比較し、チュ・リュー・エドモンドスを用いることでより深い木を生成する。
論文 参考訳(メタデータ) (2022-01-12T12:56:13Z) - Efficient Sampling of Dependency Structures [39.5549669100436]
ルート制約を受けるグラフから依存木を忠実にサンプリングするために、2つのスパンニングツリーサンプリングアルゴリズムを適用する。
我々はColbournのアルゴリズムに基づいて、$mathcalO(K N3 + K2 N)$ timeで置き換えることなく$K$木をサンプリングできる新しい拡張を示す。
論文 参考訳(メタデータ) (2021-09-14T08:33:12Z) - Learning compositional structures for semantic graph parsing [81.41592892863979]
本稿では、AM依存性解析をニューラル潜在変数モデルで直接トレーニングする方法を示す。
本モデルでは,いくつかの言語現象を独自に把握し,教師あり学習に匹敵する精度を達成している。
論文 参考訳(メタデータ) (2021-06-08T14:20:07Z) - On Finding the $K$-best Non-projective Dependency Trees [39.5549669100436]
我々はCamerini et al. (1980) の$K$-bestスパンニングツリーアルゴリズムを単純化する。
ルート制約を受けるグラフの$K$-best依存木を復号するアルゴリズムを新たに拡張する。
論文 参考訳(メタデータ) (2021-06-01T20:23:41Z) - Linguistic dependencies and statistical dependence [76.89273585568084]
文脈における単語の確率を推定するために,事前学習した言語モデルを用いる。
最大CPMI木は非文脈PMI推定値から抽出した木よりも言語的依存関係によく対応していることがわかった。
論文 参考訳(メタデータ) (2021-04-18T02:43:37Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Strongly Incremental Constituency Parsing with Graph Neural Networks [70.16880251349093]
文を構文木にパースすることは、NLPの下流アプリケーションに恩恵をもたらす。
トランジッションベースは、状態遷移システムでアクションを実行することでツリーを構築する。
既存のトランジションベースは主にシフト・リデュース・トランジション・システムに基づいている。
論文 参考訳(メタデータ) (2020-10-27T19:19:38Z) - Efficient Second-Order TreeCRF for Neural Dependency Parsing [23.426500262860777]
ディープラーニング(DL)時代には、構文解析モデルは極めて単純化され、性能にほとんど影響を与えない。
本稿では,2階目のTreeCRF拡張について述べる。
本研究では,内部とビタビアルゴリズムをバッチ化して直接大行列演算を行う手法を提案する。
論文 参考訳(メタデータ) (2020-05-03T03:18:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。