論文の概要: Neural Modeling for Named Entities and Morphology (NEMO^2)
- arxiv url: http://arxiv.org/abs/2007.15620v2
- Date: Mon, 10 May 2021 07:31:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 14:09:37.665919
- Title: Neural Modeling for Named Entities and Morphology (NEMO^2)
- Title(参考訳): 名前付きエンティティと形態のニューラルモデリング(NEMO^2)
- Authors: Dan Bareket and Reut Tsarfaty
- Abstract要約: 形態学的にリッチであいまいな言語であるModern Hebrewの新たなNERベンチマークを開発した。
形態的境界を明示的にモデル化すると,NERの性能が向上することを示す。
NERがモルフォロジー分解に先行する新しいハイブリッドアーキテクチャは、標準パイプラインを大幅に上回っている。
- 参考スコア(独自算出の注目度): 9.092452284460283
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Named Entity Recognition (NER) is a fundamental NLP task, commonly formulated
as classification over a sequence of tokens. Morphologically-Rich Languages
(MRLs) pose a challenge to this basic formulation, as the boundaries of Named
Entities do not necessarily coincide with token boundaries, rather, they
respect morphological boundaries. To address NER in MRLs we then need to answer
two fundamental questions, namely, what are the basic units to be labeled, and
how can these units be detected and classified in realistic settings, i.e.,
where no gold morphology is available. We empirically investigate these
questions on a novel NER benchmark, with parallel tokenlevel and morpheme-level
NER annotations, which we develop for Modern Hebrew, a morphologically
rich-and-ambiguous language. Our results show that explicitly modeling
morphological boundaries leads to improved NER performance, and that a novel
hybrid architecture, in which NER precedes and prunes morphological
decomposition, greatly outperforms the standard pipeline, where morphological
decomposition strictly precedes NER, setting a new performance bar for both
Hebrew NER and Hebrew morphological decomposition tasks.
- Abstract(参考訳): 名前付きエンティティ認識(NER)は基本的なNLPタスクであり、トークンのシーケンスの分類として一般的に定式化されている。
形態学的にリッチな言語(mrls)は、名前付き実体の境界が必ずしもトークン境界と一致するのではなく、形態的境界を尊重するため、この基本的な定式化に挑戦する。
MRLでNERに対処するためには、2つの基本的な質問に答える必要がある。つまり、ラベル付けすべき基本単位は何か、そしてこれらのユニットはどのようにして現実的な設定、すなわち金のモルフォロジーが利用できないかを検知し分類するかである。
並列トークンレベルと形態素レベルのNERアノテーションを備えた新しいNERベンチマークにおいて,これらの疑問を実証的に検証し,形態学的にリッチかつあいまいな言語であるModern Hebrew向けに開発した。
以上の結果から, 形態的境界を明示的にモデル化することにより, NER に先行し, NER に先行する新たなハイブリッドアーキテクチャが標準パイプラインより大幅に優れ, 形態的分解が NER に厳密に先行し, Hebrew NER と Hebrew の両形態的分解タスクに新たな性能バーが設定された。
関連論文リスト
- Recent advancements in computational morphology : A comprehensive survey [0.11606731918609076]
計算形態学は単語レベルで言語処理を扱う。
形態的境界検出、補間、形態的特徴タグ付け、形態的再考等。
論文 参考訳(メタデータ) (2024-06-08T10:07:33Z) - A Truly Joint Neural Architecture for Segmentation and Parsing [15.866519123942457]
形態的リッチ言語(MRL)の性能は他の言語よりも低い。
空間的に制限された入力トークンのモルフォロジーの複雑さとあいまいさのため、ツリーのノードとして機能する言語単位は事前に分かっていない。
本稿では,入力のすべての形態的あいまいさを保存する格子型表現をアーク分解モデルに提供し,その形態的・構文的解析タスクを一度に解く,結合型ニューラルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-04T16:56:08Z) - Incorporating Class-based Language Model for Named Entity Recognition in Factorized Neural Transducer [50.572974726351504]
クラスベースのLMをFNTに組み込んだ新しいE2EモデルであるC-FNTを提案する。
C-FNTでは、名前付きエンティティのLMスコアは、その表面形式の代わりに名前クラスに関連付けることができる。
実験の結果,提案したC-FNTは,単語認識の性能を損なうことなく,名前付きエンティティの誤りを著しく低減することがわかった。
論文 参考訳(メタデータ) (2023-09-14T12:14:49Z) - Gaussian Prior Reinforcement Learning for Nested Named Entity
Recognition [52.46740830977898]
GPRLと呼ばれる新しいSeq2seqモデルを提案し、ネストしたNERタスクをエンティティ三重項列生成プロセスとして定式化する。
3つのネストされたNERデータセットの実験では、GPRLが以前のネストされたNERモデルより優れていることが示されている。
論文 参考訳(メタデータ) (2023-05-12T05:55:34Z) - IXA/Cogcomp at SemEval-2023 Task 2: Context-enriched Multilingual Named
Entity Recognition using Knowledge Bases [53.054598423181844]
3つのステップからなる新しいNERカスケードアプローチを提案する。
我々は、細粒度および新興物質を正確に分類する上で、外部知識基盤の重要性を実証的に示す。
本システムは,低リソース言語設定においても,マルチコネラ2共有タスクにおいて頑健な性能を示す。
論文 参考訳(メタデータ) (2023-04-20T20:30:34Z) - Nested Named Entity Recognition as Holistic Structure Parsing [92.8397338250383]
本研究は,文中の全入れ子NEを全体構造としてモデル化し,全体構造解析アルゴリズムを提案する。
実験により、我々のモデルは、最先端にアプローチしたり、あるいは達成したりするような、広く使われているベンチマークで有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2022-04-17T12:48:20Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Modeling Target-Side Morphology in Neural Machine Translation: A
Comparison of Strategies [72.56158036639707]
形態的に豊かな言語は機械翻訳に困難をもたらす。
多数の異なる屈折する単語曲面は、より大きな語彙を必要とする。
いくつかの頻度の低い用語は、通常、トレーニングコーパスには現れない。
言語的合意は、出力文中の屈折語形間の文法的カテゴリを正しく一致させる必要がある。
論文 参考訳(メタデータ) (2022-03-25T10:13:20Z) - Unified Named Entity Recognition as Word-Word Relation Classification [25.801945832005504]
我々は、統一NERを単語関係分類、すなわちW2NERとしてモデル化する新しい方法を提案する。
このアーキテクチャは、エンティティワード間の隣り合う関係を効果的にモデル化することにより、統一NERのカーネルボトルネックを解決する。
W2NERスキームに基づいて,統一NERを単語ペアの2次元グリッドとしてモデル化するニューラルネットワークフレームワークを開発する。
論文 参考訳(メタデータ) (2021-12-19T06:11:07Z) - Evaluation of Morphological Embeddings for the Russian Language [0.0]
SkipgramObjectiveで訓練されたモルフォロジーベースの埋め込みは、既存の埋め込みモデル-FastTextを上回っません。
より複雑な、しかしモルフォロジーを知らないモデル、BERTは、単語のモルフォロジーの理解を必要とするタスクで大幅に大きなパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2021-03-11T11:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。