論文の概要: Is It Really Useful to Jointly Parse Constituency and Dependency Trees?
A Revisit
- arxiv url: http://arxiv.org/abs/2309.11888v1
- Date: Thu, 21 Sep 2023 08:45:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 16:11:02.254953
- Title: Is It Really Useful to Jointly Parse Constituency and Dependency Trees?
A Revisit
- Title(参考訳): Parseの選挙区と依存関係ツリーの併用は本当に有用か?
再考
- Authors: Yanggang Gu, Yang Hou, Zhefeng Wang, Xinyu Duan, Zhenghua Li
- Abstract要約: この研究は、入力文に対して互換性のある選挙区と依存ツリーを同時に生成するために、共同で選挙区と依存ツリーを解析するトピックを訪問する。
従来の研究と比較すると,(1)より効率的な復号アルゴリズムの採用,(2)推論フェーズのみではなく,トレーニングフェーズでのジョイントモデリングの探索,(3)構成-依存性相互作用のための高次スコアリングコンポーネントの提案,(4)詳細な実験と分析による洞察の獲得,の4点が進歩している。
- 参考スコア(独自算出の注目度): 16.840923969048493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work visits the topic of jointly parsing constituency and dependency
trees, i.e., to produce compatible constituency and dependency trees
simultaneously for input sentences, which is attractive considering that the
two types of trees are complementary in representing syntax. Compared with
previous works, we make progress in four aspects: (1) adopting a much more
efficient decoding algorithm, (2) exploring joint modeling at the training
phase, instead of only at the inference phase, (3) proposing high-order scoring
components for constituent-dependency interaction, (4) gaining more insights
via in-depth experiments and analysis.
- Abstract(参考訳): 本研究は,構文表現において2種類の木が相補的であることを考慮し,入力文に対して相補的な構成木と係り受け木を同時に生成することを目的とする。
先行研究と比較して,(1)より効率的な復号化アルゴリズムの採用,(2)推論段階に留まらず,訓練段階における共同モデリングの探索,(3)構成-依存相互作用のための高次得点要素の提案,(4)深い実験と分析による洞察の獲得,の4つの側面が進歩している。
関連論文リスト
- Beyond TreeSHAP: Efficient Computation of Any-Order Shapley Interactions
for Tree Ensembles [6.664930499708017]
シェープリー値(Shapley value, SV)は、予測の付加的特徴属性を定量化するための説明可能な人工知能(XAI)研究における概念である。
TreeSHAP-IQは木モデル予測のための任意の順序加法シャプリー相互作用を効率的に計算する手法である。
論文 参考訳(メタデータ) (2024-01-22T16:08:41Z) - Structured Dialogue Discourse Parsing [79.37200787463917]
談話解析は、多人数会話の内部構造を明らかにすることを目的としている。
本稿では,符号化と復号化という2つの観点から,従来の作業を改善する原理的手法を提案する。
実験の結果,本手法は,STACでは2.3,Mollweniでは1.5,先行モデルでは2.3を上回った。
論文 参考訳(メタデータ) (2023-06-26T22:51:01Z) - TreeDQN: Learning to minimize Branch-and-Bound tree [78.52895577861327]
Branch-and-Boundは、Mixed Linear Programsという形で最適化タスクを解決するための便利なアプローチである。
解法の効率は、分割する変数を選択するのに使用される分岐に依存する。
分岐を効率的に学習できる強化学習法を提案する。
論文 参考訳(メタデータ) (2023-06-09T14:01:26Z) - Hexatagging: Projective Dependency Parsing as Tagging [63.5392760743851]
文中の単語を有限個の可能なタグの要素でタグ付けすることで、依存関係木を構成する新しい依存性であるヘキサトガーを導入する。
私たちのアプローチは、トレーニング時に完全に並列化可能です。すなわち、依存関係のパースを構築するのに必要な構造構築アクションは、互いに並列に予測できます。
我々はPenn Treebankテストセット上で96.4 LASと97.4 UASの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-08T18:02:07Z) - Parallel Tree Kernel Computation [0.0]
2つの有限木からなる木核の計算のための逐次アルゴリズムの並列実装を考案する。
その結果,提案した並列アルゴリズムは遅延の点で逐次アルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-05-12T18:16:45Z) - Structure-Unified M-Tree Coding Solver for MathWord Problem [57.825176412485504]
従来,数式表現の2次木構造を考慮に入れたモデルでは,性能が向上した。
本稿では、出力構造を統一するために、任意のM枝(M-tree)を持つ木を適用した構造統一M-Tree符号化(S-UMCr)を提案する。
広く使われているMAWPSとMath23Kデータセットの実験結果は、SUMC-rが複数の最先端モデルを上回るだけでなく、低リソース条件下でもはるかに優れた性能を発揮することを示した。
論文 参考訳(メタデータ) (2022-10-22T12:20:36Z) - R2D2: Recursive Transformer based on Differentiable Tree for
Interpretable Hierarchical Language Modeling [36.61173494449218]
本稿では, 構成過程をエミュレートするために, 微分可能なCKYスタイルのバイナリツリーに基づくモデルを提案する。
我々は、このアーキテクチャに対して双方向言語モデル事前学習の目的を拡張し、左右の抽象ノードを与えられた各単語を予測しようと試みる。
また,本手法を大規模化するために,合成ステップの線形数だけを符号化する効率的な伐採木誘導アルゴリズムを導入する。
論文 参考訳(メタデータ) (2021-07-02T11:00:46Z) - Multitask Pointer Network for Multi-Representational Parsing [0.34376560669160383]
本稿では,1つのモデルをトレーニングすることにより,任意の入力文を構成木と依存木の両方で効率的に解析できる遷移ベースアプローチを提案する。
我々は2つのタスク固有のデコーダと共通エンコーダを備えたポインタネットワークアーキテクチャを開発し、それらを共同で訓練するための学習戦略に従う。
論文 参考訳(メタデータ) (2020-09-21T10:04:07Z) - Span-based Semantic Parsing for Compositional Generalization [53.24255235340056]
SpanBasedSPは入力発話上のスパンツリーを予測し、部分的なプログラムが入力内のスパンをどのように構成するかを明示的に符号化する。
GeoQuery、SCAN、CLOSUREでは、SpanBasedSPはランダムスプリットの強いseq2seqベースラインと似ているが、構成一般化を必要とするスプリットのベースラインに比べて劇的に性能が向上する。
論文 参考訳(メタデータ) (2020-09-13T16:42:18Z) - Exploiting Syntactic Structure for Better Language Modeling: A Syntactic
Distance Approach [78.77265671634454]
我々はマルチタスクの目的、すなわち、モデルが単語を同時に予測し、また「シンタクティック距離」と呼ばれる形態で真実解析木を解析する。
Penn Treebank と Chinese Treebank のデータセットによる実験結果から,地上の真理解析木を追加の訓練信号として提供すると,そのモデルはより低いパープレキシティを実現し,より良い品質で木を誘導できることが示された。
論文 参考訳(メタデータ) (2020-05-12T15:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。