論文の概要: Refining Syntactic Distinctions Using Decision Trees: A Paper on Postnominal 'That' in Complement vs. Relative Clauses
- arxiv url: http://arxiv.org/abs/2509.14261v1
- Date: Sat, 13 Sep 2025 15:41:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:52.890001
- Title: Refining Syntactic Distinctions Using Decision Trees: A Paper on Postnominal 'That' in Complement vs. Relative Clauses
- Title(参考訳): 決定木を用いた構文決定の精錬--補体と相対的クロースによる補体後'That'に関する論文
- Authors: Hamady Gackou,
- Abstract要約: 我々はまず,Helmut Schmid氏が開発したTreeTagger Englishモデルの性能試験を行った。
我々は相対代名詞と補詞の2つの用法を区別した。
我々は、TreeTaggerの再訓練により改善されたモデルを提案し、新しく訓練されたモデルをSchmidのベースラインモデルと比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we first tested the performance of the TreeTagger English model developed by Helmut Schmid with test files at our disposal, using this model to analyze relative clauses and noun complement clauses in English. We distinguished between the two uses of "that," both as a relative pronoun and as a complementizer. To achieve this, we employed an algorithm to reannotate a corpus that had originally been parsed using the Universal Dependency framework with the EWT Treebank. In the next phase, we proposed an improved model by retraining TreeTagger and compared the newly trained model with Schmid's baseline model. This process allowed us to fine-tune the model's performance to more accurately capture the subtle distinctions in the use of "that" as a complementizer and as a nominal. We also examined the impact of varying the training dataset size on TreeTagger's accuracy and assessed the representativeness of the EWT Treebank files for the structures under investigation. Additionally, we analyzed some of the linguistic and structural factors influencing the ability to effectively learn this distinction.
- Abstract(参考訳): そこで本研究では,Helmut Schmid氏が開発したTreeTagger Englishモデルの性能評価を行った。
我々は相対代名詞と補詞の2つの用法を区別した。
そこで我々は,当初Universal Dependencyフレームワークを用いて解析されていたコーパスをEWT Treebankで再注釈するアルゴリズムを用いた。
次のフェーズでは、TreeTaggerの再訓練による改善モデルを提案し、新たにトレーニングされたモデルをSchmidのベースラインモデルと比較した。
このプロセスにより、モデルの性能を微調整し、補足子として、そして名目として" that"を使用する際の微妙な区別をより正確に捉えることができます。
また,学習データセットサイズの変化がTreeTaggerの精度に与える影響についても検討し,調査対象構造物に対するEWT Treebankファイルの表現性を評価した。
さらに,この区別を効果的に学習する能力に影響を及ぼす言語的・構造的要因について分析した。
関連論文リスト
- Fine-tuning a Subtle Parsing Distinction Using a Probabilistic Decision
Tree: the Case of Postnominal "that" in Noun Complement Clauses vs. Relative
Clauses [0.0]
英文の相対的節と名詞的補節を解析する2つの方法を検討した。
我々は、Universal Dependencyを用いてGUM Treebankで解析されたコーパスをラバーするアルゴリズムを使用した。
2つ目の実験は、確率的決定木であるTreeTaggerを用いて、2つの補数と相対的利用の区別を学習することであった。
論文 参考訳(メタデータ) (2022-12-05T20:52:41Z) - A Syntax-Guided Grammatical Error Correction Model with Dependency Tree
Correction [83.14159143179269]
文法的誤り訂正(英: Grammatical Error Correction, GEC)は、文中の文法的誤りを検出し、訂正するタスクである。
本稿では,依存木の構文知識を利用するためのグラフアテンション機構を採用した構文誘導型GECモデル(SG-GEC)を提案する。
我々は、GECタスクの公開ベンチマークでモデルを評価し、競争結果を得る。
論文 参考訳(メタデータ) (2021-11-05T07:07:48Z) - Learning compositional structures for semantic graph parsing [81.41592892863979]
本稿では、AM依存性解析をニューラル潜在変数モデルで直接トレーニングする方法を示す。
本モデルでは,いくつかの言語現象を独自に把握し,教師あり学習に匹敵する精度を達成している。
論文 参考訳(メタデータ) (2021-06-08T14:20:07Z) - Combining Prediction and Interpretation in Decision Trees (PrInDT) -- a
Linguistic Example [0.0]
条件付き推論木とアンサンブルが言語変化のモデル化に適した方法であることを示す。
しかし、初期の言語応用に対して、予測と解釈を組み合わせると、それらの適合性が強く向上すると主張する。
論文 参考訳(メタデータ) (2021-03-03T11:32:20Z) - Constructing Taxonomies from Pretrained Language Models [52.53846972667636]
本稿では,事前学習した言語モデルを用いて分類木(WordNetなど)を構築する手法を提案する。
我々のアプローチは2つのモジュールから構成されており、1つは親関係を予測し、もう1つはそれらの予測を木に調整する。
我々は、WordNetからサンプリングされたサブツリーでモデルをトレーニングし、重複しないWordNetサブツリーでテストする。
論文 参考訳(メタデータ) (2020-10-24T07:16:21Z) - Recursive Top-Down Production for Sentence Generation with Latent Trees [77.56794870399288]
自然および合成言語に対する文脈自由文法の生成特性をモデル化する。
潜伏二分木構造にN$の葉を持つ動的プログラミングアルゴリズムを提案する。
また,Multi30kデータセットを用いたドイツ語と英語の翻訳実験を行った。
論文 参考訳(メタデータ) (2020-10-09T17:47:16Z) - Unsupervised Parsing via Constituency Tests [49.42244463346612]
本稿では,選挙区検定の言語的概念に基づく教師なし解析手法を提案する。
文を与えられた木を生成するために,各木をその選挙区試験判定値の集計によりスコアし,最大スコアの2進木を選択する。
洗練されたモデルはPenn Treebankテストセット上で62.8 F1を達成する。
論文 参考訳(メタデータ) (2020-10-07T04:05:01Z) - Exploiting Syntactic Structure for Better Language Modeling: A Syntactic
Distance Approach [78.77265671634454]
我々はマルチタスクの目的、すなわち、モデルが単語を同時に予測し、また「シンタクティック距離」と呼ばれる形態で真実解析木を解析する。
Penn Treebank と Chinese Treebank のデータセットによる実験結果から,地上の真理解析木を追加の訓練信号として提供すると,そのモデルはより低いパープレキシティを実現し,より良い品質で木を誘導できることが示された。
論文 参考訳(メタデータ) (2020-05-12T15:35:00Z) - An enhanced Tree-LSTM architecture for sentence semantic modeling using
typed dependencies [0.0]
Tree-based Long short term memory (LSTM) ネットワークは、言語テキストの意味をモデル化するための最先端技術となっている。
本稿では、シーケンスの2つの入力間の関係をモデル化できる、リレーショナルゲートLSTMと呼ばれる拡張LSTMアーキテクチャを提案する。
また、文依存解析構造と依存型を用いて、文の意味を密度の高いベクトルに埋め込むTyped Dependency Tree-LSTMモデルを導入する。
論文 参考訳(メタデータ) (2020-02-18T18:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。