論文の概要: Cross-Domain Neural Entity Linking
- arxiv url: http://arxiv.org/abs/2210.15616v1
- Date: Wed, 28 Sep 2022 15:22:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 12:16:49.257913
- Title: Cross-Domain Neural Entity Linking
- Title(参考訳): クロスドメインニューラルエンティティリンク
- Authors: Hassan Soliman
- Abstract要約: クロスドメインニューラルエンティティリンクフレームワーク(CDNEL)を提案する。
我々の目標は、汎用ドメインKBとドメイン固有のKBの両方に同時リンクできる単一のシステムを作ることである。
提案フレームワークは、細調整に異なるタイプのデータセットを使用し、CDNELの異なるモデル変異をもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Entity Linking is the task of matching a mention to an entity in a given
knowledge base (KB). It contributes to annotating a massive amount of documents
existing on the Web to harness new facts about their matched entities. However,
existing Entity Linking systems focus on developing models that are typically
domain-dependent and robust only to a particular knowledge base on which they
have been trained. The performance is not as adequate when being evaluated on
documents and knowledge bases from different domains.
Approaches based on pre-trained language models, such as Wu et al. (2020),
attempt to solve the problem using a zero-shot setup, illustrating some
potential when evaluated on a general-domain KB. Nevertheless, the performance
is not equivalent when evaluated on a domain-specific KB. To allow for more
accurate Entity Linking across different domains, we propose our framework:
Cross-Domain Neural Entity Linking (CDNEL). Our objective is to have a single
system that enables simultaneous linking to both the general-domain KB and the
domain-specific KB. CDNEL works by learning a joint representation space for
these knowledge bases from different domains. It is evaluated using the
external Entity Linking dataset (Zeshel) constructed by Logeswaran et al.
(2019) and the Reddit dataset collected by Botzer et al. (2021), to compare our
proposed method with the state-of-the-art results. The proposed framework uses
different types of datasets for fine-tuning, resulting in different model
variants of CDNEL. When evaluated on four domains included in the Zeshel
dataset, these variants achieve an average precision gain of 9%.
- Abstract(参考訳): エンティティリンクは、与えられた知識ベース(kb)内のエンティティへの言及をマッチングするタスクである。
マッチしたエンティティに関する新しい事実を活用するために、Webに存在する大量のドキュメントに注釈をつけることに貢献します。
しかし、既存のエンティティリンクシステムは、訓練された特定の知識ベースに対してのみ、ドメインに依存し、堅牢なモデルの開発に焦点を当てている。
異なるドメインの文書や知識ベースで評価される場合、パフォーマンスは不十分である。
wu et al. (2020)のような事前学習された言語モデルに基づくアプローチでは、一般的なドメインkbで評価した場合の可能性を示しながら、ゼロショット設定を使って問題を解決しようとする。
それでも、ドメイン固有のKBで評価すると、パフォーマンスは同等ではない。
異なるドメイン間でより正確なエンティティリンクを可能にするため、私たちは、クロスドメインニューラルエンティティリンク(CDNEL)というフレームワークを提案します。
我々の目標は、汎用ドメインKBとドメイン固有のKBの両方に同時リンクできる単一のシステムを作ることである。
CDNELは、これらの知識ベースを異なる領域から学習することで機能する。
Logeswaran et al. (2019) が構築した外部エンティティリンクデータセット (Zeshel) とBotzer et al. (2021) が収集したRedditデータセットを用いて評価を行い、提案手法と最先端の結果を比較した。
提案フレームワークは、細調整に異なるタイプのデータセットを使用し、CDNELの異なるモデル変異をもたらす。
Zeshelデータセットに含まれる4つの領域で評価すると、これらの変種は平均精度9%に達する。
関連論文リスト
- Heterogeneous Graph-based Framework with Disentangled Representations Learning for Multi-target Cross Domain Recommendation [7.247438542823219]
CDR(Cross-Domain Recommendation)は、レコメンデーションシステムにおけるデータ空間の問題に対する重要な解決策である。
本稿では,HGDR (Heterogeneous Graph-based Framework with Disentangled Representations Learning)を提案する。
実世界のデータセットとオンラインA/Bテストの実験により、提案モデルがドメイン間の情報を効果的に伝達できることが証明された。
論文 参考訳(メタデータ) (2024-07-01T02:27:54Z) - TAL: Two-stream Adaptive Learning for Generalizable Person
Re-identification [115.31432027711202]
我々は、ドメイン固有性とドメイン不変性の両方が、re-idモデルの一般化能力の向上に不可欠であると主張する。
これら2種類の情報を同時にモデル化するために,2ストリーム適応学習 (TAL) を命名した。
我々のフレームワークは、単一ソースとマルチソースの両方のドメイン一般化タスクに適用できる。
論文 参考訳(メタデータ) (2021-11-29T01:27:42Z) - Context-Conditional Adaptation for Recognizing Unseen Classes in Unseen
Domains [48.17225008334873]
我々は,COCOA (COntext Conditional Adaptive) Batch-Normalization と統合された特徴生成フレームワークを提案する。
生成されたビジュアル機能は、基礎となるデータ分散をよりよくキャプチャすることで、テスト時に見つからないクラスやドメインに一般化できます。
確立した大規模ベンチマークであるDomainNetに対する我々のアプローチを徹底的に評価し、分析する。
論文 参考訳(メタデータ) (2021-07-15T17:51:16Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Learning to Cluster under Domain Shift [20.00056591000625]
本研究では、ソースデータとターゲットデータの両方にアノテーションがない場合に、ソースからターゲットドメインに知識を転送する問題に対処する。
ディープクラスタリングに関する最近の研究から着想を得た私たちのアプローチは、複数のソースドメインから収集されたデータからの情報を活用する。
本手法は,少数のサンプルが存在する場合でも,関連する意味情報を自動的に発見できることを示す。
論文 参考訳(メタデータ) (2020-08-11T12:03:01Z) - Self-paced Contrastive Learning with Hybrid Memory for Domain Adaptive
Object Re-ID [55.21702895051287]
ドメイン適応オブジェクトre-IDは、学習した知識をラベル付けされたソースドメインからラベル付けされていないターゲットドメインに転送することを目的としています。
本稿では,ハイブリットメモリを用いた自己評価型コントラスト学習フレームワークを提案する。
提案手法は,オブジェクトre-IDの複数のドメイン適応タスクにおいて,最先端の処理性能を向上する。
論文 参考訳(メタデータ) (2020-06-04T09:12:44Z) - Zero-Resource Cross-Domain Named Entity Recognition [68.83177074227598]
既存のドメイン名付きエンティティ認識モデルは、多くのラベルなしコーパスや、ターゲットドメイン内のラベル付きNERトレーニングデータに依存している。
外部リソースを一切使用しないドメイン間NERモデルを提案する。
論文 参考訳(メタデータ) (2020-02-14T09:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。