論文の概要: Linking Entities to Unseen Knowledge Bases with Arbitrary Schemas
- arxiv url: http://arxiv.org/abs/2010.11333v1
- Date: Wed, 21 Oct 2020 22:07:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 00:09:00.232659
- Title: Linking Entities to Unseen Knowledge Bases with Arbitrary Schemas
- Title(参考訳): 任意スキーマによる未知の知識ベースへのエンティティのリンク
- Authors: Yogarshi Vyas, Miguel Ballesteros
- Abstract要約: エンティティリンクでは、原文中の名前付きエンティティの言及は知識ベース(KB)に対して曖昧にされる
この研究は、トレーニングデータがなく、トレーニング中にスキーマが不明な未確認KBへのリンクに焦点を当てている。
このアプローチは、いくつかの属性値対を持つ任意のKBからフラット文字列へのエンティティのフレキシブルな変換法に依存している。
- 参考スコア(独自算出の注目度): 31.154104663488358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In entity linking, mentions of named entities in raw text are disambiguated
against a knowledge base (KB). This work focuses on linking to unseen KBs that
do not have training data and whose schema is unknown during training. Our
approach relies on methods to flexibly convert entities from arbitrary KBs with
several attribute-value pairs into flat strings, which we use in conjunction
with state-of-the-art models for zero-shot linking. To improve the
generalization of our model, we use two regularization schemes based on
shuffling of entity attributes and handling of unseen attributes. Experiments
on English datasets where models are trained on the CoNLL dataset, and tested
on the TAC-KBP 2010 dataset show that our models outperform baseline models by
over 12 points of accuracy. Unlike prior work, our approach also allows for
seamlessly combining multiple training datasets. We test this ability by adding
both a completely different dataset (Wikia), as well as increasing amount of
training data from the TAC-KBP 2010 training set. Our models perform favorably
across the board.
- Abstract(参考訳): エンティティリンクでは、原文中の名前付きエンティティの言及は知識ベース(KB)に対して曖昧である。
この研究は、トレーニングデータがなく、トレーニング中にスキーマが不明な未確認KBへのリンクに焦点を当てている。
提案手法は,任意のKBからいくつかの属性値対を持つエンティティをフラット文字列に柔軟に変換する手法に依存し,ゼロショットリンクのための最先端モデルと組み合わせて用いる。
モデルの一般化を改善するために,エンティティ属性のシャッフルと未知属性のハンドリングに基づく2つの正規化スキームを用いる。
CoNLLデータセットでモデルをトレーニングし、TAC-KBP 2010データセットでテストした英語データセットの実験によると、我々のモデルはベースラインモデルよりも12ポイント以上精度が高い。
これまでの作業とは異なり、当社のアプローチでは、複数のトレーニングデータセットをシームレスに組み合わせることも可能です。
我々は、完全に異なるデータセット(Wikia)とTAC-KBP 2010トレーニングセットからのトレーニングデータの量を増やすことにより、この能力をテストする。
私たちのモデルは全社で好成績です。
関連論文リスト
- A Contextualized BERT model for Knowledge Graph Completion [0.0]
知識グラフ補完(KGC)のためのコンテキスト化BERTモデルを提案する。
本モデルでは,エンティティ記述や負の三重項サンプリングの必要性を排除し,計算要求を低減し,性能を向上する。
FB15k-237とWN18RRでは,Hit@1が5.3%向上し,4.88%向上した。
論文 参考訳(メタデータ) (2024-12-15T02:03:16Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - TRAK: Attributing Model Behavior at Scale [79.56020040993947]
本稿では,大規模な微分モデルに対して有効かつ計算的に抽出可能なデータ属性法であるTRAK(Tracing with Randomly-trained After Kernel)を提案する。
論文 参考訳(メタデータ) (2023-03-24T17:56:22Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Representing Knowledge by Spans: A Knowledge-Enhanced Model for
Information Extraction [7.077412533545456]
本稿では,エンティティとリレーションの両方の表現を同時に学習する事前学習モデルを提案する。
スパンをスパンモジュールで効率的に符号化することで、私たちのモデルはエンティティとそれらの関係を表現できますが、既存のモデルよりもパラメータが少なくなります。
論文 参考訳(メタデータ) (2022-08-20T07:32:25Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z) - Scalable knowledge base completion with superposition memories [7.754062965937491]
本稿では,知識ベース補完のためのニューラルネットワークであるハーモニックメモリネットワーク(HMem)を提案する。
HMemはエンティティを、エンティティの隣人と対応する関係の間のペアワイズ結合の重み付け和としてモデル化する。
WNGenとFBGenの2つの新しいデータセットでこれを実証する。
論文 参考訳(メタデータ) (2021-10-24T03:18:04Z) - Interpretable and Low-Resource Entity Matching via Decoupling Feature
Learning from Decision Making [22.755892575582788]
Entity Matchingは、同じ現実世界のオブジェクトを表すエンティティレコードを認識することを目的としている。
異種情報融合(HIF)とキー属性ツリー(KAT)誘導からなる新しいEMフレームワークを提案する。
提案手法は効率が高く,ほとんどの場合SOTA EMモデルより優れている。
論文 参考訳(メタデータ) (2021-06-08T08:27:31Z) - A Simple Approach to Case-Based Reasoning in Knowledge Bases [56.661396189466664]
我々は,古典人工知能(AI)におけるケースベース推論を想起させる,アンフノトレーニングを必要とする知識グラフ(KG)における推論に対する驚くほど単純かつ正確なアプローチを提案する。
ソースエンティティとバイナリ関係が与えられたターゲットエンティティを見つけるタスクを考えてみましょう。
我々の非パラメトリックなアプローチは、与えられた関係を通して類似したソースエンティティを接続する複数のテキストトグラフパスパターンを見つけることによって、クエリ毎にクレープな論理ルールを導出します。
論文 参考訳(メタデータ) (2020-06-25T06:28:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。