論文の概要: CHOLAN: A Modular Approach for Neural Entity Linking on Wikipedia and
Wikidata
- arxiv url: http://arxiv.org/abs/2101.09969v2
- Date: Mon, 8 Feb 2021 12:50:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:11:17.156276
- Title: CHOLAN: A Modular Approach for Neural Entity Linking on Wikipedia and
Wikidata
- Title(参考訳): CHOLAN: WikipediaとWikidata上のニューラルエンティティリンクに対するモジュール的アプローチ
- Authors: Manoj Prabhakar Kannan Ravi, Kuldeep Singh, Isaiah Onando Mulang',
Saeedeh Shekarpour, Johannes Hoffart, Jens Lehmann
- Abstract要約: CHOLANは、知識ベース上のエンドツーエンドエンティティリンク(EL)をターゲットとするモジュラーアプローチです。
我々の実証研究は2つのよく知られた知識ベース(ウィキデータとウィキペディア)で実施された。
- 参考スコア(独自算出の注目度): 7.494524471976277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose CHOLAN, a modular approach to target end-to-end
entity linking (EL) over knowledge bases. CHOLAN consists of a pipeline of two
transformer-based models integrated sequentially to accomplish the EL task. The
first transformer model identifies surface forms (entity mentions) in a given
text. For each mention, a second transformer model is employed to classify the
target entity among a predefined candidates list. The latter transformer is fed
by an enriched context captured from the sentence (i.e. local context), and
entity description gained from Wikipedia. Such external contexts have not been
used in the state of the art EL approaches. Our empirical study was conducted
on two well-known knowledge bases (i.e., Wikidata and Wikipedia). The empirical
results suggest that CHOLAN outperforms state-of-the-art approaches on standard
datasets such as CoNLL-AIDA, MSNBC, AQUAINT, ACE2004, and T-REx.
- Abstract(参考訳): 本稿では,知識ベース上でのエンドツーエンドエンティティリンク(EL)をターゲットとするモジュール型アプローチCHOLANを提案する。
CHOLANは、2つのトランスフォーマーベースモデルのパイプラインで構成され、ELタスクを順次統合する。
最初のトランスフォーマーモデルは、与えられたテキストの表面形式(エンティティ参照)を識別する。
言及するごとに、2番目のトランスフォーマーモデルを使用して、あらかじめ定義された候補リストのターゲットエンティティを分類します。
後者のトランスフォーマーは、文(すなわち)からキャプチャされたリッチなコンテキストによって与えられる。
ローカルコンテキスト)と、wikipediaから得られたエンティティ記述。
このような外部コンテキストは、アートELアプローチの状況では使われていない。
私たちの実証的研究は、2つの有名な知識ベース(WikidataとWikipedia)で行われました。
実証的な結果は、CHOLANがCoNLL-AIDA、MSNBC、AQUAINT、ACE2004、T-RExなどの標準データセットの最先端のアプローチを上回ることを示唆している。
関連論文リスト
- Wikiformer: Pre-training with Structured Information of Wikipedia for
Ad-hoc Retrieval [21.262531222066208]
本稿では,ウィキペディアの構造的知識に基づいて,情報検索タスクに適した4つの事前学習目標を考案する。
既存の事前学習手法と比較して,本手法はトレーニングコーパスにおける意味的知識をよりよく捉えることができる。
生物医学・法学領域における実験結果から,本手法は垂直領域において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-12-17T09:31:47Z) - Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - KEPLET: Knowledge-Enhanced Pretrained Language Model with Topic Entity
Awareness [12.90996504014071]
Topicエンティティ認識を備えた知識強化型LanguagEモデルKEPLETを提案する。
エンドツーエンドの方法で、KEPLETはトピックエンティティの情報をWikipediaの文に追加する場所を特定する。
2つの代表KEPLMに適用したKePLETの一般性と優越性を示す実験を行った。
論文 参考訳(メタデータ) (2023-05-02T22:28:26Z) - Prior Knowledge Guided Unsupervised Domain Adaptation [82.9977759320565]
本稿では,対象とするクラス分布に関する事前知識を利用できる知識誘導型非教師付きドメイン適応(KUDA)設定を提案する。
特に,対象領域におけるクラス分布に関する2種類の事前知識について考察する。
このような事前知識を用いて生成した擬似ラベルを精査する修正モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T18:41:36Z) - Improving Candidate Retrieval with Entity Profile Generation for
Wikidata Entity Linking [76.00737707718795]
本稿では,エンティティ・プロファイリングに基づく新しい候補探索パラダイムを提案する。
我々は、このプロファイルを使用してインデックス付き検索エンジンに問い合わせ、候補エンティティを検索する。
本手法は,ウィキペディアのアンカーテキスト辞書を用いた従来の手法を補完するものである。
論文 参考訳(メタデータ) (2022-02-27T17:38:53Z) - HittER: Hierarchical Transformers for Knowledge Graph Embeddings [85.93509934018499]
複雑な知識グラフにおける実体と関係の表現を学習するためにHittを提案する。
実験結果から,Hittは複数リンク予測において最先端の新たな結果が得られることがわかった。
さらに,HittをBERTに統合する簡単なアプローチを提案し,その効果を2つのFreebaseファクトイド対応データセットで示す。
論文 参考訳(メタデータ) (2020-08-28T18:58:15Z) - Evaluating the Impact of Knowledge Graph Context on Entity
Disambiguation Models [12.656207178909542]
我々は、知識グラフ(私たちの場合、Wikidata)から派生したコンテキストが、事前学習されたトランスフォーマーモデルに十分な信号を提供すると論じている。
さらに,提案したKGコンテキストがWikipediaで標準化可能であることを仮定し,KGコンテキストがWikipedia知識ベースにおける最先端NEDモデルに与える影響を評価する。
論文 参考訳(メタデータ) (2020-08-12T09:12:22Z) - Mind The Facts: Knowledge-Boosted Coherent Abstractive Text
Summarization [47.47707316595568]
本稿ではトランスフォーマーエンコーダデコーダアーキテクチャを拡張した新しいアーキテクチャを提案する。
Wikidataナレッジグラフからエンティティレベルの知識をエンコーダ・デコーダアーキテクチャに組み込む。
これにより、ソース記事が長い場合でも、コヒーレントな要約を生成するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-27T20:06:15Z) - A Simple Approach to Case-Based Reasoning in Knowledge Bases [56.661396189466664]
我々は,古典人工知能(AI)におけるケースベース推論を想起させる,アンフノトレーニングを必要とする知識グラフ(KG)における推論に対する驚くほど単純かつ正確なアプローチを提案する。
ソースエンティティとバイナリ関係が与えられたターゲットエンティティを見つけるタスクを考えてみましょう。
我々の非パラメトリックなアプローチは、与えられた関係を通して類似したソースエンティティを接続する複数のテキストトグラフパスパターンを見つけることによって、クエリ毎にクレープな論理ルールを導出します。
論文 参考訳(メタデータ) (2020-06-25T06:28:09Z) - Empirical Evaluation of Pretraining Strategies for Supervised Entity
Linking [10.66251816212639]
本稿では、Transformerアーキテクチャとウィキペディアリンクからの大規模事前学習を組み合わせたエンティティリンクモデルを提案する。
我々のモデルは、CoNLLの96.7%、TAC-KBPの94.9%という2つの一般的なエンティティリンクデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2020-05-28T19:32:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。