論文の概要: Entity Context Graph: Learning Entity Representations
fromSemi-Structured Textual Sources on the Web
- arxiv url: http://arxiv.org/abs/2103.15950v1
- Date: Mon, 29 Mar 2021 20:52:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 15:08:43.958049
- Title: Entity Context Graph: Learning Entity Representations
fromSemi-Structured Textual Sources on the Web
- Title(参考訳): Entity Context Graph:Web上のSemi-Structuredテキストソースからエンティティ表現を学ぶ
- Authors: Kalpa Gunaratna, Yu Wang, Hongxia Jin
- Abstract要約: エンティティ中心のテキスト知識ソースを処理してエンティティ埋め込みを学ぶアプローチを提案する。
私たちのアプローチから学んだ埋め込みは、(i)高品質で、既知の知識グラフベースの埋め込みに匹敵し、それらをさらに改善するために使用することができます。
- 参考スコア(独自算出の注目度): 44.92858943475407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge is captured in the form of entities and their relationships and
stored in knowledge graphs. Knowledge graphs enhance the capabilities of
applications in many different areas including Web search, recommendation, and
natural language understanding. This is mainly because, entities enable
machines to understand things that go beyond simple tokens. Many modern
algorithms use learned entity embeddings from these structured representations.
However, building a knowledge graph takes time and effort, hence very costly
and nontrivial. On the other hand, many Web sources describe entities in some
structured format and therefore, finding ways to get them into useful entity
knowledge is advantageous. We propose an approach that processes entity centric
textual knowledge sources to learn entity embeddings and in turn avoids the
need for a traditional knowledge graph. We first extract triples into the new
representation format that does not use traditional complex triple extraction
methods defined by pre-determined relationship labels. Then we learn entity
embeddings through this new type of triples. We show that the embeddings
learned from our approach are: (i) high quality and comparable to a known
knowledge graph-based embeddings and can be used to improve them further, (ii)
better than a contextual language model-based entity embeddings, and (iii) easy
to compute and versatile in domain-specific applications where a knowledge
graph is not readily available
- Abstract(参考訳): 知識はエンティティとその関係の形でキャプチャされ、知識グラフに格納される。
知識グラフは、Web検索、レコメンデーション、自然言語理解など、さまざまな分野のアプリケーションの能力を高める。
これは主に、エンティティが機械に単純なトークン以上のことを理解できるようにするためである。
多くの現代のアルゴリズムは、これらの構造化表現から学習されたエンティティ埋め込みを使用する。
しかし、知識グラフの構築には時間と労力がかかります。
一方で、多くのWebソースが構造化形式のエンティティを記述しているため、有用なエンティティ知識を得る方法を見つけることは有利である。
本稿では,エンティティ中心のテキスト知識ソースを処理してエンティティ埋め込みを学習し,従来の知識グラフの必要性を回避するアプローチを提案する。
まず、あらかじめ決定された関係ラベルによって定義される従来の複雑な三重項抽出法を使用しない新しい表現形式に三重項を抽出する。
次に、この新しいタイプのトリプルを通じてエンティティ埋め込みを学ぶ。
i) 高品質で既知の知識グラフベースの埋め込みに匹敵し、それらをさらに改善するために使用できること、(ii) 文脈言語モデルベースのエンティティ埋め込みよりも優れたこと、(iii) 知識グラフが手軽に利用できないドメイン固有アプリケーションにおいて、計算が容易で汎用性の高いこと、である。
関連論文リスト
- Inference over Unseen Entities, Relations and Literals on Knowledge Graphs [1.7474352892977463]
知識グラフ埋め込みモデルは、様々な課題に対処するために、トランスダクティブな設定でうまく適用されている。
本稿では、エンティティとリレーションのバイトペアエンコードされたサブワード単位のシーケンスから三重埋め込みを構築するための注意的バイトペアエンコーディング層(BytE)を提案する。
BytEは、知識グラフの埋め込みモデルに、エンティティやリレーションではなくサブワード単位の埋め込みを学習させるため、重み付けによる大規模な機能の再利用につながる。
論文 参考訳(メタデータ) (2024-10-09T10:20:54Z) - Universal Knowledge Graph Embeddings [4.322134229203427]
本稿では,大規模知識源からユニバーサル知識グラフの埋め込みを学習することを提案する。
私たちはDBpediaとWikidataをベースとした普遍的な埋め込みを、約1億5000万のエンティティ、1500万のリレーション、120億のトリプルで計算することで、私たちのアイデアをインスタンス化します。
論文 参考訳(メタデータ) (2023-10-23T13:07:46Z) - Joint Language Semantic and Structure Embedding for Knowledge Graph
Completion [66.15933600765835]
本稿では,知識三重項の自然言語記述と構造情報とを共同で組み込むことを提案する。
本手法は,学習済み言語モデルを微調整することで,完了作業のための知識グラフを埋め込む。
各種知識グラフベンチマーク実験により,本手法の最先端性能を実証した。
論文 参考訳(メタデータ) (2022-09-19T02:41:02Z) - One-shot Scene Graph Generation [130.57405850346836]
ワンショットシーングラフ生成タスクに対して,複数の構造化知識(関係知識知識)を提案する。
提案手法は既存の最先端手法よりも大きなマージンで優れる。
論文 参考訳(メタデータ) (2022-02-22T11:32:59Z) - Taxonomy Enrichment with Text and Graph Vector Representations [61.814256012166794]
我々は,既存の分類学に新たな語を加えることを目的とした分類学の豊かさの問題に対処する。
我々は,この課題に対して,少ない労力で高い結果を得られる新しい手法を提案する。
我々は、異なるデータセットにわたる最先端の結果を達成し、ミスの詳細なエラー分析を提供する。
論文 参考訳(メタデータ) (2022-01-21T09:01:12Z) - KI-BERT: Infusing Knowledge Context for Better Language and Domain
Understanding [0.0]
概念的および曖昧な実体に対する知識グラフから知識コンテキストをトランスフォーマーアーキテクチャに基づくモデルに注入する手法を提案する。
私たちの新しい技術プロジェクト知識グラフは、同質ベクトル空間に埋め込み、エンティティのための新しいトークンタイプ、エンティティの位置IDの整列、および選択的注意メカニズムを導入します。
私たちはBERTをベースラインモデルとし、ConceptNetとWordNetから知識コンテキストを注入して「KnowledgeInfused BERT」を実装します。
論文 参考訳(メタデータ) (2021-04-09T16:15:31Z) - Learning semantic Image attributes using Image recognition and knowledge
graph embeddings [0.3222802562733786]
本稿では,知識グラフ埋め込みモデルと認識された画像の属性を組み合わせることで,画像の意味的属性を学習するための共有学習手法を提案する。
提案されたアプローチは、大量のデータから学習するフレームワークと、新しい知識を推論するために限定的な述語を使用するフレームワークのギャップを埋めるためのステップである。
論文 参考訳(メタデータ) (2020-09-12T15:18:48Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。