論文の概要: Named Entity Recognition in Context
- arxiv url: http://arxiv.org/abs/2503.20836v1
- Date: Wed, 26 Mar 2025 08:37:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:53:29.310298
- Title: Named Entity Recognition in Context
- Title(参考訳): コンテキストにおける名前付きエンティティ認識
- Authors: Colin Brisson, Ayoub Kahfy, Marc Bui, Frédéric Constant,
- Abstract要約: 本稿では,EvaHan2025 コンペティションのために Edit Dunhuang チームが開発した Named Entity Recognition システムについて述べる。
提案手法は3つのコアコンポーネントを統合した。Pindola, 古典中国語の大量のコーパスに事前訓練された, 近代中国語のトランスフォーマーをベースとした双方向エンコーダ, ターゲットシーケンスごとに関連する外部コンテキストを取得する検索モジュールである。
このアプローチを用いて、平均F1スコア85.58を達成し、競技ベースラインをほぼ5ポイント改善する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We present the Named Entity Recognition system developed by the Edit Dunhuang team for the EvaHan2025 competition. Our approach integrates three core components: (1) Pindola, a modern transformer-based bidirectional encoder pretrained on a large corpus of Classical Chinese texts; (2) a retrieval module that fetches relevant external context for each target sequence; and (3) a generative reasoning step that summarizes retrieved context in Classical Chinese for more robust entity disambiguation. Using this approach, we achieve an average F1 score of 85.58, improving upon the competition baseline by nearly 5 points.
- Abstract(参考訳): 本稿では,EvaHan2025 コンペティションのために Edit Dunhuang チームが開発した Named Entity Recognition システムについて述べる。
提案手法は,(1)古典中国語文の大規模コーパスに事前学習された現代中国語のトランスフォーマーをベースとした双方向エンコーダであるPindola,(2)ターゲット配列の外部コンテキストを抽出する検索モジュール,(3)古典中国語の検索コンテキストを要約した生成的推論ステップを,より堅牢なエンティティの曖昧さのために統合する。
このアプローチを用いて、平均F1スコア85.58を達成し、競技ベースラインをほぼ5ポイント改善する。
関連論文リスト
- An Energy-based Model for Word-level AutoCompletion in Computer-aided Translation [97.3797716862478]
Word-level AutoCompletion (WLAC) は、コンピュータ支援翻訳における報奨だが挑戦的なタスクである。
既存の作業は、入力コンテキストの隠れベクターを対応するラベルにマッピングするニューラルネットワークに基づく分類モデルを通じて、このタスクに対処する。
そこで本研究では,WLACのエネルギーモデルを提案する。
論文 参考訳(メタデータ) (2024-07-29T15:07:19Z) - Unified Lattice Graph Fusion for Chinese Named Entity Recognition [9.863877505377165]
中国語のエンティティ認識のための統一格子グラフ融合(ULGF)手法を提案する。
ノード表現を学習するために反復的にセマンティックな相互作用を実行する複数のグラフベースのイントラソース自己アテンションとソース間相互ゲージ融合層を積み重ねる。
論文 参考訳(メタデータ) (2023-12-28T09:31:25Z) - Improving Self-training for Cross-lingual Named Entity Recognition with
Contrastive and Prototype Learning [80.08139343603956]
言語横断的な実体認識において、自己学習は言語的ギャップを埋めるために一般的に用いられる。
本研究では,表現学習と擬似ラベル改善を組み合わせることで,言語間NERの自己学習を改善することを目的とする。
提案手法,すなわちContProtoは主に,(1)コントラスト型自己学習と(2)プロトタイプベース擬似ラベルの2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-05-23T02:52:16Z) - IXA/Cogcomp at SemEval-2023 Task 2: Context-enriched Multilingual Named
Entity Recognition using Knowledge Bases [53.054598423181844]
3つのステップからなる新しいNERカスケードアプローチを提案する。
我々は、細粒度および新興物質を正確に分類する上で、外部知識基盤の重要性を実証的に示す。
本システムは,低リソース言語設定においても,マルチコネラ2共有タスクにおいて頑健な性能を示す。
論文 参考訳(メタデータ) (2023-04-20T20:30:34Z) - USTC-NELSLIP at SemEval-2022 Task 11: Gazetteer-Adapted Integration
Network for Multilingual Complex Named Entity Recognition [41.26523047041553]
本稿では,SemEval-2022 Task 11 Multilingual Complex Named Entities Recognition (MultiCoNER)のためにUSTC-NELSLIPチームが開発したシステムについて述べる。
本稿では,複雑な名前付きエンティティを認識するための言語モデルの性能向上のために,ガゼッタ適応統合ネットワーク(GAIN)を提案する。
論文 参考訳(メタデータ) (2022-03-07T09:05:37Z) - DEEP: DEnoising Entity Pre-training for Neural Machine Translation [123.6686940355937]
機械翻訳モデルは通常、トレーニングコーパスで稀な名前付きエンティティの翻訳を貧弱に生成することが示されている。
文中の名前付きエンティティ翻訳精度を向上させるために,大量のモノリンガルデータと知識ベースを利用するDenoising Entity Pre-training法であるDEEPを提案する。
論文 参考訳(メタデータ) (2021-11-14T17:28:09Z) - Span Labeling Approach for Vietnamese and Chinese Word Segmentation [0.0]
ベトナム語単語セグメンテーション(SPAN SEG)のためのn-gram情報をモデル化するためのスパンラベリング手法を提案する。
我々は,同じアーキテクチャを持つエンコーダを用いて,スパンラベリング手法と条件付きランダムフィールドを比較した。
ベトナム語と中国語は類似した言語現象を持つため,ベトナム語木バンクベンチマークデータセットと5つの中国語ベンチマークデータセットを用いて提案手法の評価を行った。
論文 参考訳(メタデータ) (2021-10-01T01:25:50Z) - Question Answering Infused Pre-training of General-Purpose
Contextualized Representations [70.62967781515127]
汎用的文脈表現学習のための質問応答(QA)に基づく事前学習目的を提案する。
我々は、より正確なクロスエンコーダモデルの予測と一致するように、個別にパスと質問をエンコードするバイエンコーダQAモデルをトレーニングすることで、この目標を達成する。
ゼロショット, 少数ショットのパラフレーズ検出において, RoBERTa-large と過去の最先端のどちらよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-06-15T14:45:15Z) - Deep Diacritization: Efficient Hierarchical Recurrence for Improved
Arabic Diacritization [0.0]
本稿では,Tashkeela Arabic diacritizationベンチマークにおいて,文字列のラベル付けのための新しいアーキテクチャを提案する。
コアは2段階の繰り返し階層であり、単語レベルと文字レベルを別々に操作する。
クロスレベルアテンションモジュールは、さらにこの2つを接続し、ネットワーク解釈性のための扉を開く。
論文 参考訳(メタデータ) (2020-11-01T15:33:43Z) - Beheshti-NER: Persian Named Entity Recognition Using BERT [0.0]
本稿では、ペルシャ語で名前付きエンティティ認識のモデルを作成するために、事前訓練された深層双方向ネットワークBERTを使用する。
その結果,83.5 と 88.4 f1 の CONLL スコアをフレーズレベルと単語レベルで評価した。
論文 参考訳(メタデータ) (2020-03-19T15:55:21Z) - EmotiCon: Context-Aware Multimodal Emotion Recognition using Frege's
Principle [71.47160118286226]
EmotiConは、ビデオや画像から知覚された人間の感情認識をコンテキスト認識する学習アルゴリズムである。
心理学からフレーゲの文脈原理に動機づけられた我々のアプローチは、感情認識のための文脈の3つの解釈を組み合わせたものである。
平均精度 (AP) スコアは26クラスで35.48であり, 従来の手法よりも7-8の改善が見られた。
論文 参考訳(メタデータ) (2020-03-14T19:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。