論文の概要: Bridging Discourse Treebanks with a Unified Rhetorical Structure Parser
- arxiv url: http://arxiv.org/abs/2510.06427v1
- Date: Tue, 07 Oct 2025 20:06:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.181438
- Title: Bridging Discourse Treebanks with a Unified Rhetorical Structure Parser
- Title(参考訳): 統一型レトリック構造解析器を用いたブリッジング談話木バンク
- Authors: Elena Chistova,
- Abstract要約: 我々は11言語で18のツリーバンクを処理できる最初の統一RTTスタイルの談話であるUniRSTを紹介した。
在庫の非互換性を克服するために、在庫ごとに個別の関連分類層を割り当てるマルチヘッドと、選択ラベルマスキングによる共有パラメータトレーニングを可能にするマスケ・ユニオンの2つのトレーニング戦略を提案し、評価する。
- 参考スコア(独自算出の注目度): 9.13755431537592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce UniRST, the first unified RST-style discourse parser capable of handling 18 treebanks in 11 languages without modifying their relation inventories. To overcome inventory incompatibilities, we propose and evaluate two training strategies: Multi-Head, which assigns separate relation classification layer per inventory, and Masked-Union, which enables shared parameter training through selective label masking. We first benchmark monotreebank parsing with a simple yet effective augmentation technique for low-resource settings. We then train a unified model and show that (1) the parameter efficient Masked-Union approach is also the strongest, and (2) UniRST outperforms 16 of 18 mono-treebank baselines, demonstrating the advantages of a single-model, multilingual end-to-end discourse parsing across diverse resources.
- Abstract(参考訳): 我々は11言語で18のツリーバンクを処理できる初めての統一RST型談話パーサUniRSTを紹介した。
在庫の非互換性を克服するために、在庫ごとに個別の関連分類層を割り当てるマルチヘッドと、選択ラベルマスキングによる共有パラメータトレーニングを可能にするマスケ・ユニオンの2つのトレーニング戦略を提案し、評価する。
我々はまず,低リソース設定のための簡易かつ効果的な拡張手法を用いて,モノツリーバンク解析のベンチマークを行った。
そして,(1)パラメータ効率のよいMasked-Unionアプローチが最強であること,(2)UniRSTは18の単木バンクベースラインのうち16を上回り,多種多様な資源をまたがる単一モデル,多言語対エンドツーエンドの談話解析の利点を実証する。
関連論文リスト
- Training-Free Tokenizer Transplantation via Orthogonal Matching Pursuit [45.18582668677648]
大規模言語モデルにおいて,トークン化剤を移植するためのトレーニング不要な手法を提案する。
それぞれの語彙外トークンを,共有トークンの疎線形結合として近似する。
我々は,OMPがベースモデルの性能を最良にゼロショット保存できることを示す。
論文 参考訳(メタデータ) (2025-06-07T00:51:27Z) - Pushing the boundary on Natural Language Inference [49.15148871877941]
自然言語推論(NLI)は、ファクトチェック、質問応答、情報検索における自然言語理解の中心的なタスクである。
その重要性にもかかわらず、現在のNLIシステムは、アーティファクトやバイアス、推論、実世界の適用性を制限した学習に大きく依存している。
この作業は、品質や実世界の適用性を犠牲にすることなく、堅牢なNLIシステムを構築するためのフレームワークを提供する。
論文 参考訳(メタデータ) (2025-04-25T14:20:57Z) - Learning to Skip for Language Modeling [33.51322197222855]
言語モデルの事前訓練では、異なるトークンに可変量の計算を割り当てるべきである。
24個のNLPタスクに対して評価を行い,提案手法が1ショット性能を大幅に向上できることを示した。
論文 参考訳(メタデータ) (2023-11-26T21:45:53Z) - Towards A Unified View of Sparse Feed-Forward Network in Pretraining
Large Language Model [58.9100867327305]
大規模かつスパースなフィードフォワード層(S-FFN)は、大きな言語モデルをテキスト処理するためにTransformersモデルのサイズをスケールアップするのに有効であることが証明されている。
我々は,S-FFNの2つの主要な設計選択,すなわち,メモリブロックのサイズとメモリブロックの選択方法について分析した。
言語モデルの事前学習において,より単純な選択方法である textbftextttAvg-K が得られた。
論文 参考訳(メタデータ) (2023-05-23T12:28:37Z) - Unsupervised and Few-shot Parsing from Pretrained Language Models [56.33247845224995]
本研究では,事前学習言語モデルで学習した自己注意重み行列に基づいて,アウトアソシエーションスコアを算出した教師なし構成的パーシングモデルを提案する。
教師なしモデルからいくつかの注釈付き木を用いた数ショット構文解析モデルに拡張し、解析のためのより優れた線形射影行列を学習する。
FPIOは20本の注釈付き木で訓練され、50本の注釈付き木で訓練された過去の数枚の構文解析よりも優れていた。
論文 参考訳(メタデータ) (2022-06-10T10:29:15Z) - DMRST: A Joint Framework for Document-Level Multilingual RST Discourse
Segmentation and Parsing [24.986030179701405]
本稿では,EDUセグメンテーションと談話木解析を共同で行う文書レベルの多言語RST談話解析フレームワークを提案する。
本モデルは,すべてのサブタスクにおいて,文書レベルの多言語RST解析における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-09T09:15:56Z) - Multitask Pointer Network for Multi-Representational Parsing [0.34376560669160383]
本稿では,1つのモデルをトレーニングすることにより,任意の入力文を構成木と依存木の両方で効率的に解析できる遷移ベースアプローチを提案する。
我々は2つのタスク固有のデコーダと共通エンコーダを備えたポインタネットワークアーキテクチャを開発し、それらを共同で訓練するための学習戦略に従う。
論文 参考訳(メタデータ) (2020-09-21T10:04:07Z) - Towards Instance-Level Parser Selection for Cross-Lingual Transfer of
Dependency Parsers [59.345145623931636]
我々は、インスタンスレベルの選択(ILPS)という、新しい言語間移動パラダイムを論じる。
本稿では,デレキシライズドトランスファーの枠組みにおけるインスタンスレベルの選択に着目した概念実証研究を提案する。
論文 参考訳(メタデータ) (2020-04-16T13:18:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。