論文の概要: Multimodal Entity Linking for Tweets
- arxiv url: http://arxiv.org/abs/2104.03236v1
- Date: Wed, 7 Apr 2021 16:40:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 12:39:35.785922
- Title: Multimodal Entity Linking for Tweets
- Title(参考訳): つぶやきに対するマルチモーダルエンティティリンク
- Authors: Omar Adjali and Romaric Besan\c{c}on and Olivier Ferret and Herve Le
Borgne and Brigitte Grau
- Abstract要約: マルチモーダル・エンティティ・リンク(MEL)は、知識ベース(KB)のエンティティへの曖昧な言及をマッピングするためにテキストと視覚情報を使用する新興の研究分野である。
我々は,MEL のための完全注釈付き Twitter データセットを構築する方法を提案し,エンティティは Twitter KB で定義されている。
次に,テキストと視覚の文脈から言及と実体の両方の表現を共同学習するモデルを提案する。
- 参考スコア(独自算出の注目度): 6.439761523935613
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In many information extraction applications, entity linking (EL) has emerged
as a crucial task that allows leveraging information about named entities from
a knowledge base. In this paper, we address the task of multimodal entity
linking (MEL), an emerging research field in which textual and visual
information is used to map an ambiguous mention to an entity in a knowledge
base (KB). First, we propose a method for building a fully annotated Twitter
dataset for MEL, where entities are defined in a Twitter KB. Then, we propose a
model for jointly learning a representation of both mentions and entities from
their textual and visual contexts. We demonstrate the effectiveness of the
proposed model by evaluating it on the proposed dataset and highlight the
importance of leveraging visual information when it is available.
- Abstract(参考訳): 多くの情報抽出アプリケーションにおいて、名前付きエンティティに関する情報を知識ベースから活用するための重要なタスクとしてエンティティリンク(EL)が登場している。
本稿では,知識ベース(KB)におけるエンティティへの曖昧な言及をテキストと視覚情報を用いてマッピングする,MEL(Multimodal entity Linking)の課題に対処する。
まず、MELのための完全に注釈付けされたTwitterデータセットを構築する方法を提案し、そこではエンティティをTwitter KBで定義する。
次に,テキストと視覚の文脈から言及と実体の両方の表現を共同学習するモデルを提案する。
提案モデルの有効性を,提案したデータセット上で評価し,利用可能なときに視覚情報を活用することの重要性を強調する。
関連論文リスト
- Two Heads Are Better Than One: Integrating Knowledge from Knowledge
Graphs and Large Language Models for Entity Alignment [31.70064035432789]
LLMEA(Large Language Model-enhanced Entity Alignment Framework)を提案する。
LLMEAは、知識グラフにまたがるエンティティ間の類似性を埋め込んだり、仮想の等価エンティティとの距離を編集することで、特定のエンティティの候補アライメントを識別する。
3つの公開データセットで実施された実験により、LLMEAが主要なベースラインモデルを上回ることが判明した。
論文 参考訳(メタデータ) (2024-01-30T12:41:04Z) - AMELI: Enhancing Multimodal Entity Linking with Fine-Grained Attributes [22.158388220889865]
本稿では属性認識型マルチモーダル・エンティティリンクを提案する。
目標は、マルチモーダルな知識ベースから対応する対象エンティティを予測することである。
本研究を支援するために,18,472のレビューと35,598の製品からなる大規模データセットAMELIを構築した。
論文 参考訳(メタデータ) (2023-05-24T05:01:48Z) - Information Screening whilst Exploiting! Multimodal Relation Extraction
with Feature Denoising and Multimodal Topic Modeling [96.75821232222201]
既存のマルチモーダル関係抽出(MRE)研究は、内部情報過剰利用と外部情報過多という2つの共存課題に直面している。
内部情報スクリーニングと外部情報活用を同時に実現する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T14:56:57Z) - Modeling Entities as Semantic Points for Visual Information Extraction
in the Wild [55.91783742370978]
文書画像から鍵情報を正確かつ堅牢に抽出する手法を提案する。
我々は、エンティティを意味的ポイントとして明示的にモデル化する。つまり、エンティティの中心点は、異なるエンティティの属性と関係を記述する意味情報によって豊かになる。
提案手法は,従来の最先端モデルと比較して,エンティティラベルとリンクの性能を著しく向上させることができる。
論文 参考訳(メタデータ) (2023-03-23T08:21:16Z) - Named Entity and Relation Extraction with Multi-Modal Retrieval [51.660650522630526]
マルチモーダルな名前付きエンティティ認識(NER)と関係抽出(RE)は、関連画像情報を活用してNERとREの性能を向上させることを目的としている。
新たなマルチモーダル検索フレームワーク(MoRe)を提案する。
MoReはテキスト検索モジュールと画像ベースの検索モジュールを含み、入力されたテキストと画像の関連知識をそれぞれ知識コーパスで検索する。
論文 参考訳(メタデータ) (2022-12-03T13:11:32Z) - Visual Named Entity Linking: A New Dataset and A Baseline [61.38231023490981]
入力は画像のみで構成される純粋にビジュアルな名前付きエンティティリンク(VNEL)タスクを考える。
本稿では,視覚的・視覚的エンティティリンク(V2VEL),視覚的・テキスト的エンティティリンク(V2TEL),視覚的・テキスト的エンティティリンク(V2VEL)の3つのサブタスクを提案する。
WIKIPersonという,高品質な人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人称人
論文 参考訳(メタデータ) (2022-11-09T13:27:50Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Injecting Knowledge Base Information into End-to-End Joint Entity and
Relation Extraction and Coreference Resolution [13.973471173349072]
我々は、教師なしエンティティリンクに基づいて、そのようなIEモデルの知識ベース(KB)から情報を注入する方法を研究する。
使用済みKBエンティティ表現は、(i)ハイパーリンクテキスト文書(Wikipedia)または(ii)知識グラフ(Wikidata)から学習される。
論文 参考訳(メタデータ) (2021-07-05T21:49:02Z) - InSRL: A Multi-view Learning Framework Fusing Multiple Information
Sources for Distantly-supervised Relation Extraction [19.176183245280267]
ナレッジベースに広く存在する2つのソース、すなわちエンティティ記述と複数の粒度のエンティティタイプを紹介します。
Intact Space Representation Learning (InSRL) による関係抽出のためのエンドツーエンドのマルチビュー学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-17T02:49:46Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。