論文の概要: DAMO-NLP at NLPCC-2022 Task 2: Knowledge Enhanced Robust NER for Speech
Entity Linking
- arxiv url: http://arxiv.org/abs/2209.13187v1
- Date: Tue, 27 Sep 2022 06:43:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 14:23:06.407386
- Title: DAMO-NLP at NLPCC-2022 Task 2: Knowledge Enhanced Robust NER for Speech
Entity Linking
- Title(参考訳): DAMO-NLP at NLPCC-2022 Task 2: Knowledge Enhanced Robust NER for Speech Entity Linking
- Authors: Shen Huang, Yuchen Zhai, Xinwei Long, Yong Jiang, Xiaobin Wang, Yin
Zhang and Pengjun Xie
- Abstract要約: Speech Entity Linkingは、音声言語で名前付きエンティティを認識し、曖昧にすることを目的としている。
従来の方法では、未発の音声スタイルや、ASRシステムによって生成されるノイズの多い書き起こしに悩まされる。
本稿では,認知段階における適切な知識を無痛に取り入れることによる堅牢性向上に焦点を当てた知名強化エンティティ認識(KENER)を提案する。
NLPCC-2022共有タスク2のトラック2におけるトラック1とトラック2の1位を達成した。
- 参考スコア(独自算出の注目度): 32.915297772110364
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Speech Entity Linking aims to recognize and disambiguate named entities in
spoken languages. Conventional methods suffer gravely from the unfettered
speech styles and the noisy transcripts generated by ASR systems. In this
paper, we propose a novel approach called Knowledge Enhanced Named Entity
Recognition (KENER), which focuses on improving robustness through painlessly
incorporating proper knowledge in the entity recognition stage and thus
improving the overall performance of entity linking. KENER first retrieves
candidate entities for a sentence without mentions, and then utilizes the
entity descriptions as extra information to help recognize mentions. The
candidate entities retrieved by a dense retrieval module are especially useful
when the input is short or noisy. Moreover, we investigate various data
sampling strategies and design effective loss functions, in order to improve
the quality of retrieved entities in both recognition and disambiguation
stages. Lastly, a linking with filtering module is applied as the final
safeguard, making it possible to filter out wrongly-recognized mentions. Our
system achieves 1st place in Track 1 and 2nd place in Track 2 of NLPCC-2022
Shared Task 2.
- Abstract(参考訳): Speech Entity Linkingは、音声言語で名前付きエンティティを認識し、曖昧にすることを目的としている。
従来の方法は、asrシステムによって生成された音声スタイルやノイズの多い書き起こしにひどく苦しむ。
本稿では,知識強化型エンティティ認識(kener)と呼ばれる新しい手法を提案する。エンティティ認識段階に適切な知識を無痛に取り入れ,エンティティリンク全体の性能を向上させることにより,堅牢性を向上させることに焦点を当てる。
KENERはまず、言及なしの文の候補エンティティを検索し、その後、エンティティ記述を追加情報として利用して、参照を認識する。
密集した検索モジュールによって検索される候補エンティティは、入力が短い場合やうるさい場合には特に有用である。
さらに,認識段階と曖昧段階の両方において,検索対象の質を向上させるために,様々なデータサンプリング戦略と効果的な損失関数について検討する。
最後に、フィルタリングモジュールとのリンクが最終セーフガードとして適用され、間違った認識された言及をフィルタリングすることができる。
NLPCC-2022共有タスク2のトラック2におけるトラック1とトラック2の1位を達成した。
関連論文リスト
- AKEM: Aligning Knowledge Base to Queries with Ensemble Model for Entity
Recognition and Linking [15.548722102706867]
本稿では,NLPCC 2015におけるエンティティ認識とリンク問題に対する新しいアプローチを提案する。
このタスクでは、短い検索クエリから名前付きエンティティの参照を抽出し、中国の知識ベース内のエンティティにリンクする。
本手法は計算効率が高く,F1スコアは0.535である。
論文 参考訳(メタデータ) (2023-09-12T12:37:37Z) - Improving Few-shot and Zero-shot Entity Linking with Coarse-to-Fine
Lexicon-based Retriever [30.096395104683193]
少数ショットとゼロショットのエンティティリンクは、テールと新興エンティティに重点を置いている。
本稿では,エンティティ候補を効果的に検索する粗大なレキシコンベースレトリバーを提案する。
NLPCC 2023では,中国のFew-shotとZero-shot Entity Linkingで第1位にランクインしている。
論文 参考訳(メタデータ) (2023-08-07T07:39:43Z) - PAI at SemEval-2023 Task 2: A Universal System for Named Entity
Recognition with External Entity Information [19.995198769980345]
MultiCoNER IIタスクは、低コンテキストの状況やノイズのシナリオにおいて、複雑であいまいできめ細かな名前のエンティティを検出することを目的としている。
本システムは,あるテキストの知識ベース(例えばWikipedia)からプロパティを持つエンティティを検索し,入力文でエンティティ情報を検索し,Transformerベースのモデルに入力する。
論文 参考訳(メタデータ) (2023-05-10T12:40:48Z) - IXA/Cogcomp at SemEval-2023 Task 2: Context-enriched Multilingual Named
Entity Recognition using Knowledge Bases [53.054598423181844]
3つのステップからなる新しいNERカスケードアプローチを提案する。
我々は、細粒度および新興物質を正確に分類する上で、外部知識基盤の重要性を実証的に示す。
本システムは,低リソース言語設定においても,マルチコネラ2共有タスクにおいて頑健な性能を示す。
論文 参考訳(メタデータ) (2023-04-20T20:30:34Z) - Introducing Semantics into Speech Encoders [91.37001512418111]
本研究では,大言語モデルからの意味情報をラベル付き音声書き起こしのない自己教師付き音声エンコーダに組み込む教師なしの手法を提案する。
提案手法は,100時間以上のラベル付き音声書き起こしにおける教師あり手法と類似した性能を実現する。
論文 参考訳(メタデータ) (2022-11-15T18:44:28Z) - The Overlooked Classifier in Human-Object Interaction Recognition [82.20671129356037]
クラス間の意味的相関を分類ヘッドにエンコードし,重みをHOIの言語埋め込みで初期化する。
我々は,LSE-Sign という新しい損失を,長い尾を持つデータセット上でのマルチラベル学習を強化するために提案する。
我々は,物体検出と人間のポーズを明確なマージンで求める最先端技術よりも優れた,検出不要なHOI分類を可能にする。
論文 参考訳(メタデータ) (2022-03-10T23:35:00Z) - Nested Named Entity Recognition as Latent Lexicalized Constituency
Parsing [29.705133932275892]
最近(Fu et al, 2021)は、ネストされたNERに取り組むために、スパンベースの選挙区に適応している。
本研究では, より表現力のある構造, 語彙化された選挙区木を用いて, 成分がキーワードでアノテートされる。
我々はアイズナー・サッタのアルゴリズムを有効活用し,部分的辺縁化と推論を効率的に行う。
論文 参考訳(メタデータ) (2022-03-09T12:02:59Z) - DAMO-NLP at SemEval-2022 Task 11: A Knowledge-based System for
Multilingual Named Entity Recognition [94.1865071914727]
MultiCoNERは、複数の言語に対する短文と低文設定で意味的に曖昧な名前のエンティティを検出することを目的としている。
我々のチームDAMO-NLPは知識に基づくシステムを提案し、ウィキペディアに基づく多言語知識ベースを構築する。
入力文が与えられた場合,本システムは知識ベースから関連コンテキストを効果的に検索する。
我々のシステムはMultiCoNER共有タスクで13トラック中10トラックを獲得した。
論文 参考訳(メタデータ) (2022-03-01T15:29:35Z) - Locate and Label: A Two-stage Identifier for Nested Named Entity
Recognition [9.809157050048375]
名前付きエンティティ認識のための2段階エンティティ識別子を提案する。
まず、シードスパンのフィルタリングと境界回帰によってスパン提案を生成し、エンティティの特定を行い、それに対応するカテゴリで境界調整スパン提案をラベル付けする。
本手法は,訓練中のエンティティの境界情報と部分マッチングスパンを効果的に活用する。
論文 参考訳(メタデータ) (2021-05-14T12:52:34Z) - PIN: A Novel Parallel Interactive Network for Spoken Language
Understanding [68.53121591998483]
既存の RNN ベースのアプローチでは、ID と SF のタスクは、それらの間の相関情報を利用するために、しばしば共同でモデル化される。
SNIPSとATISという2つのベンチマークデータセットによる実験は、我々のアプローチの有効性を実証している。
さらに,事前学習した言語モデルBERTが生成した発話の特徴埋め込みを用いて,提案手法はすべての比較手法の中で最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-09-28T15:59:31Z) - Probing Linguistic Features of Sentence-Level Representations in Neural
Relation Extraction [80.38130122127882]
ニューラルリレーション抽出(RE)に関連する言語特性を対象とした14の探索タスクを導入する。
私たちは、40以上の異なるエンコーダアーキテクチャと2つのデータセットでトレーニングされた言語的特徴の組み合わせによって学習された表現を研究するためにそれらを使用します。
アーキテクチャによって引き起こされるバイアスと言語的特徴の含意は、探索タスクのパフォーマンスにおいて明らかに表現されている。
論文 参考訳(メタデータ) (2020-04-17T09:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。