論文の概要: KoGNER: A Novel Framework for Knowledge Graph Distillation on Biomedical Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2503.15737v1
- Date: Wed, 19 Mar 2025 22:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:34:48.937853
- Title: KoGNER: A Novel Framework for Knowledge Graph Distillation on Biomedical Named Entity Recognition
- Title(参考訳): KoGNER:生物医学的名前付きエンティティ認識のための知識グラフ蒸留フレームワーク
- Authors: Heming Zhang, Wenyu Li, Di Huang, Yinjie Tang, Yixin Chen, Philip Payne, Fuhai Li,
- Abstract要約: 名前付きエンティティ認識(NER)は、情報抽出、質問応答、知識に基づくシステムにおいて重要な役割を果たす。
従来のディープラーニングベースのNERモデルは、ドメイン固有の一般化に苦しむことが多く、データ空間の問題に悩まされる。
我々は、知識グラフをNERモデルに統合する新しいアプローチである、名前付きエンティティ認識(KoGNER)のために蒸留した知識グラフを紹介する。
- 参考スコア(独自算出の注目度): 19.311500689293336
- License:
- Abstract: Named Entity Recognition (NER) is a fundamental task in Natural Language Processing (NLP) that plays a crucial role in information extraction, question answering, and knowledge-based systems. Traditional deep learning-based NER models often struggle with domain-specific generalization and suffer from data sparsity issues. In this work, we introduce Knowledge Graph distilled for Named Entity Recognition (KoGNER), a novel approach that integrates Knowledge Graph (KG) distillation into NER models to enhance entity recognition performance. Our framework leverages structured knowledge representations from KGs to enrich contextual embeddings, thereby improving entity classification and reducing ambiguity in entity detection. KoGNER employs a two-step process: (1) Knowledge Distillation, where external knowledge sources are distilled into a lightweight representation for seamless integration with NER models, and (2) Entity-Aware Augmentation, which integrates contextual embeddings that have been enriched with knowledge graph information directly into GNN, thereby improving the model's ability to understand and represent entity relationships. Experimental results on benchmark datasets demonstrate that KoGNER achieves state-of-the-art performance, outperforming finetuned NER models and LLMs by a significant margin. These findings suggest that leveraging knowledge graphs as auxiliary information can significantly improve NER accuracy, making KoGNER a promising direction for future research in knowledge-aware NLP.
- Abstract(参考訳): 名前付きエンティティ認識(NER)は自然言語処理(NLP)の基本課題であり、情報抽出、質問応答、知識に基づくシステムにおいて重要な役割を果たす。
従来のディープラーニングベースのNERモデルは、ドメイン固有の一般化に苦しむことが多く、データ空間の問題に悩まされる。
本研究では,知識グラフをNERモデルに統合し,エンティティ認識性能を向上させる新しい手法として,名前付きエンティティ認識のための知識グラフ蒸留(KoGNER)を提案する。
我々のフレームワークは,KGからの構造化知識表現を活用し,コンテキスト埋め込みを強化し,エンティティ分類を改善し,エンティティ検出のあいまいさを低減する。
KoGNERは,(1)外部知識源をNERモデルとのシームレスな統合のために軽量な表現に蒸留する知識蒸留,(2)知識グラフ情報をGNNに直接蓄積したコンテキスト埋め込みを統合するエンティティ・アウェア・アジュメンテーションという2段階のプロセスを用いて,モデルが実体関係を理解し表現する能力を向上させる。
ベンチマークデータセットによる実験結果から、KoGNERは最先端のパフォーマンスを達成し、微調整されたNERモデルとLLMをかなりのマージンで上回ることを示した。
これらの結果から,知識グラフを補助情報として活用することで,NERの精度が向上する可能性が示唆された。
関連論文リスト
- Knowledge Graphs and Pre-trained Language Models enhanced Representation Learning for Conversational Recommender Systems [58.561904356651276]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Prompting ChatGPT in MNER: Enhanced Multimodal Named Entity Recognition
with Auxiliary Refined Knowledge [27.152813529536424]
PGIM - ChatGPTを暗黙の知識基盤として活用することを目的とした2段階のフレームワークを提案する。
PGIMはより効率的なエンティティ予測のための補助知識を生成する。
これは、2つの古典的なMNERデータセットで最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-05-20T15:24:38Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - KGNN: Distributed Framework for Graph Neural Knowledge Representation [38.080926752998586]
我々は,分散学習システムにおける表現学習のための知識データを完全に活用するために,KGNNと呼ばれる新しいフレームワークを開発した。
KGNNは、高次構造と属性情報を共同で探索することを目的とした、GNNベースのエンコーダと知識認識デコーダを備えている。
論文 参考訳(メタデータ) (2022-05-17T12:32:02Z) - MINER: Improving Out-of-Vocabulary Named Entity Recognition from an
Information Theoretic Perspective [57.19660234992812]
NERモデルは標準のNERベンチマークで有望な性能を達成した。
近年の研究では、従来のアプローチはエンティティ参照情報に過度に依存し、OoV(out-of-vocabulary)エンティティ認識の性能が劣っていることが示されている。
我々は、情報理論の観点からこの問題を改善するための新しいNER学習フレームワークであるMINERを提案する。
論文 参考訳(メタデータ) (2022-04-09T05:18:20Z) - Jointly Learning Knowledge Embedding and Neighborhood Consensus with
Relational Knowledge Distillation for Entity Alignment [9.701081498310165]
エンティティアライメントは、異なる知識グラフから異種知識を統合することを目的としています。
近年の研究では、知識グラフを初めて学習し、エンティティアライメントを実行することで、埋め込みに基づく手法が採用されている。
本稿では,知識蒸留機能を備えたグラフ畳み込みネットワーク(GCN)モデルを提案する。
論文 参考訳(メタデータ) (2022-01-25T02:47:14Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - KARL-Trans-NER: Knowledge Aware Representation Learning for Named Entity
Recognition using Transformers [0.0]
名前付きエンティティ認識(NER)のための知識認識表現学習(KARL)ネットワークを提案する。
KARLは、ファクトトリプレットとして表される大きな知識ベースを利用し、それらをコンテキストに変換し、内部に存在する必須情報を抽出して、特徴拡張のためのコンテキスト化三重項表現を生成するトランスフォーマーに基づいている。
実験結果から,KARL を用いた拡張は NER システムの性能を大幅に向上させ,既存の 3 つの NER データセット(CoNLL 2003,CoNLL++,OntoNotes v5 など)の文献上のアプローチよりもはるかに優れた結果が得られることが示された。
論文 参考訳(メタデータ) (2021-11-30T14:29:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。