論文の概要: J2N -- Nominal Adjective Identification and its Application
- arxiv url: http://arxiv.org/abs/2409.14374v2
- Date: Sun, 13 Oct 2024 06:47:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 23:04:03.883808
- Title: J2N -- Nominal Adjective Identification and its Application
- Title(参考訳): J2N-名詞形容詞識別とその応用
- Authors: Lemeng Qi, Yang Han, Zhuotong Xie,
- Abstract要約: 本稿では,自然言語処理(NLP)における名詞形容詞(NA)による課題について考察する。
異なるPOSタグである"JN"としてNAを処理し,そのPOSタグ付け,BIOチャンキング,コア参照解決への影響について検討する。
- 参考スコア(独自算出の注目度): 1.2694721486451528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores the challenges posed by nominal adjectives (NAs) in natural language processing (NLP) tasks, particularly in part-of-speech (POS) tagging. We propose treating NAs as a distinct POS tag, "JN," and investigate its impact on POS tagging, BIO chunking, and coreference resolution. Our study shows that reclassifying NAs can improve the accuracy of syntactic analysis and structural understanding in NLP. We present experimental results using Hidden Markov Models (HMMs), Maximum Entropy (MaxEnt) models, and Spacy, demonstrating the feasibility and potential benefits of this approach. Additionally we trained a bert model to identify the NA in untagged text.
- Abstract(参考訳): 本稿では、自然言語処理(NLP)タスクにおける名詞形容詞(NA)による課題について、特にPOS(Part-of-speech)タグ付けにおいて考察する。
異なるPOSタグである"JN"としてNAを処理し,そのPOSタグ付け,BIOチャンキング,コア参照解決への影響について検討する。
本研究は,NAの再分類により,NLPにおける構文解析と構造理解の精度が向上することが示唆された。
隠れマルコフモデル(HMM)、最大エントロピーモデル(MaxEnt)、スペシーモデル(Spacy)を用いて,本手法の有効性と可能性を示す実験結果を示す。
さらに、未タグのテキストでNAを特定するためにbertモデルをトレーニングしました。
関連論文リスト
- Evaluating Large Language Models Using Contrast Sets: An Experimental Approach [0.0]
本研究では,スタンフォード自然言語推論データセットのコントラストセットを生成する革新的な手法を提案する。
我々の戦略は、動詞、副詞、形容詞をその同義語と自動置換して、文の本来の意味を保存することである。
本手法は,モデルの性能が真の言語理解に基づくのか,それとも単にパターン認識に基づくのかを評価することを目的とする。
論文 参考訳(メタデータ) (2024-04-02T02:03:28Z) - Incorporating Class-based Language Model for Named Entity Recognition in Factorized Neural Transducer [50.572974726351504]
クラスベースのLMをFNTに組み込んだ新しいE2EモデルであるC-FNTを提案する。
C-FNTでは、名前付きエンティティのLMスコアは、その表面形式の代わりに名前クラスに関連付けることができる。
実験の結果,提案したC-FNTは,単語認識の性能を損なうことなく,名前付きエンティティの誤りを著しく低減することがわかった。
論文 参考訳(メタデータ) (2023-09-14T12:14:49Z) - Improving Domain-Specific Retrieval by NLI Fine-Tuning [64.79760042717822]
本稿では、自然言語推論(NLI)データの微調整の可能性を調べ、情報検索とランキングを改善する。
コントラスト損失とNLIデータを利用した教師あり手法により細調整された単言語文エンコーダと多言語文エンコーダを併用する。
この結果から,NLIの微調整によりタスクおよび言語間のモデルの性能が向上し,単言語モデルと多言語モデルが改良される可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-06T12:40:58Z) - Enriching the NArabizi Treebank: A Multifaceted Approach to Supporting
an Under-Resourced Language [0.0]
ナラビジ (Narabizi) は、主にソーシャルメディアで使用される北アフリカのアラビア語のローマ字形である。
NArabizi Treebankの豊富なバージョンを紹介します。
論文 参考訳(メタデータ) (2023-06-26T17:27:31Z) - Towards preserving word order importance through Forced Invalidation [80.33036864442182]
事前学習された言語モデルは単語の順序に敏感であることを示す。
我々は,単語順序の重要性を維持するために強制的無効化を提案する。
実験の結果,強制的無効化は単語順に対するモデルの感度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-04-11T13:42:10Z) - CROP: Zero-shot Cross-lingual Named Entity Recognition with Multilingual
Labeled Sequence Translation [113.99145386490639]
言語間NERは、整列した言語間表現や機械翻訳結果を通じて、言語間で知識を伝達することができる。
ゼロショット言語間NERを実現するために,クロスランガル・エンティティ・プロジェクション・フレームワーク(CROP)を提案する。
多言語ラベル付きシーケンス翻訳モデルを用いて、タグ付けされたシーケンスをターゲット言語に投影し、ターゲットの原文にラベル付けする。
論文 参考訳(メタデータ) (2022-10-13T13:32:36Z) - Always Keep your Target in Mind: Studying Semantics and Improving
Performance of Neural Lexical Substitution [124.99894592871385]
本稿では,従来の言語モデルと最近の言語モデルの両方を用いた語彙置換手法の大規模比較研究を行う。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによるすでに競合する結果がさらに大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-06-07T16:16:19Z) - On the Frailty of Universal POS Tags for Neural UD Parsers [3.7311680121118345]
UPOSタグをニューラルネットワークの機能として活用するには,タグ付けの精度が極めて高く,金タグの使用は非直線的な性能向上をもたらすことを示す。
また,予測された UPOS タグのどの側面が精度にどのような影響を及ぼすかについても検討し,問題の潜在的な言語的側面を浮き彫りにしている。
論文 参考訳(メタデータ) (2020-10-05T07:40:35Z) - Reading Comprehension as Natural Language Inference: A Semantic Analysis [15.624486319943015]
質問回答(QA)における自然言語推論(NLI)の有用性について検討する。
我々は、利用可能な最大のRCデータセット(RACE)の1つをNLI形式に変換し、両形式の最先端モデル(RoBERTa)の性能を比較する。
我々は、データをコヒーレントな包含形式、構造化された質問応答結合形式で提示するときに、モデルがよりよく機能できる明確なカテゴリを強調した。
論文 参考訳(メタデータ) (2020-10-04T22:50:59Z) - A Comparative Study of Lexical Substitution Approaches based on Neural
Language Models [117.96628873753123]
本稿では,一般的なニューラル言語とマスキング言語モデルの大規模比較研究について述べる。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによって達成された既に競合する結果をさらに改善できることを示す。
論文 参考訳(メタデータ) (2020-05-29T18:43:22Z) - NILE : Natural Language Inference with Faithful Natural Language
Explanations [10.074153632701952]
ラベル特定説明(NILE)に対する自然言語推論を提案する。
NILEは、ラベル固有の説明を自動生成し、その忠実な説明とともにラベルを作成する新しいNLI手法である。
我々は, NILE の説明の忠実さを, 対応する説明に対する決定の敏感さの観点から論じる。
論文 参考訳(メタデータ) (2020-05-25T13:56:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。