論文の概要: Representation Learning on Hyper-Relational and Numeric Knowledge Graphs with Transformers
- arxiv url: http://arxiv.org/abs/2305.18256v5
- Date: Sat, 05 Oct 2024 07:26:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 13:42:04.529841
- Title: Representation Learning on Hyper-Relational and Numeric Knowledge Graphs with Transformers
- Title(参考訳): 変圧器を用いたハイパーリレーショナルおよび数値知識グラフの表現学習
- Authors: Chanyoung Chung, Jaejun Lee, Joyce Jiyoung Whang,
- Abstract要約: ハイパーリレーショナル知識グラフ(英語版)が最近研究され、三重項が一組の等化子と関連付けられている。
我々はHyNTという名前の統一フレームワークを提案し、三重項または等化子に数値リテラルを含むハイパーリレーショナル知識グラフの表現を学習する。
- 参考スコア(独自算出の注目度): 14.240639250451736
- License:
- Abstract: A hyper-relational knowledge graph has been recently studied where a triplet is associated with a set of qualifiers; a qualifier is composed of a relation and an entity, providing auxiliary information for a triplet. While existing hyper-relational knowledge graph embedding methods assume that the entities are discrete objects, some information should be represented using numeric values, e.g., (J.R.R., was born in, 1892). Also, a triplet (J.R.R., educated at, Oxford Univ.) can be associated with a qualifier such as (start time, 1911). In this paper, we propose a unified framework named HyNT that learns representations of a hyper-relational knowledge graph containing numeric literals in either triplets or qualifiers. We define a context transformer and a prediction transformer to learn the representations based not only on the correlations between a triplet and its qualifiers but also on the numeric information. By learning compact representations of triplets and qualifiers and feeding them into the transformers, we reduce the computation cost of using transformers. Using HyNT, we can predict missing numeric values in addition to missing entities or relations in a hyper-relational knowledge graph. Experimental results show that HyNT significantly outperforms state-of-the-art methods on real-world datasets.
- Abstract(参考訳): ハイパーリレーショナル知識グラフ(英語版)は、最近研究され、三重項が一組の等化子に関連付けられ、等化子は関係と実体から構成され、三重項の補助情報を提供する。
既存のハイパーリレーショナル知識グラフ埋め込み法は、エンティティが離散オブジェクトであると仮定するが、いくつかの情報は、例えば(J.R.R.は1892年に生まれた)数値を使って表現されるべきである。
また、三重項(オックスフォード大学で教育を受けたJ.R.R.)は(開始時間、1911年)等式に関連付けられる。
本稿では,三重項あるいは等化子に数値リテラルを含むハイパーリレーショナル知識グラフの表現を学習するHyNTという統合フレームワークを提案する。
我々は文脈変換器と予測変換器を定義し、三重項とその等化器の相関だけでなく、数値情報にもとづいて表現を学習する。
三重項と等化器のコンパクト表現を学習し、変換器に供給することにより、変換器を使用する際の計算コストを削減できる。
HyNTを用いて、ハイパーリレーショナルな知識グラフにおいて、欠落したエンティティや関係に加えて、欠落した数値を予測することができる。
実験の結果,HyNTは実世界のデータセットにおいて最先端の手法よりも優れていた。
関連論文リスト
- Inference over Unseen Entities, Relations and Literals on Knowledge Graphs [1.7474352892977463]
知識グラフ埋め込みモデルは、様々な課題に対処するために、トランスダクティブな設定でうまく適用されている。
本稿では、エンティティとリレーションのバイトペアエンコードされたサブワード単位のシーケンスから三重埋め込みを構築するための注意的バイトペアエンコーディング層(BytE)を提案する。
BytEは、知識グラフの埋め込みモデルに、エンティティやリレーションではなくサブワード単位の埋め込みを学習させるため、重み付けによる大規模な機能の再利用につながる。
論文 参考訳(メタデータ) (2024-10-09T10:20:54Z) - Enhanced Data Transfer Cooperating with Artificial Triplets for Scene Graph Generation [15.109087477826106]
本研究は、シーングラフ生成(SGG)のための情報リレーショナル三重項のトレーニングデータセット強化に焦点を当てる。
本稿では,FSTA(Feature Space Triplet Augmentation)とSoft Transferの2つの新しいトレーニングデータセット拡張モジュールを提案する。
実験結果から、FSTAとSoft Transferの統合は、Visual Genomeデータセットにおけるリコールと平均リコールの両方の高レベルを実現することが示された。
論文 参考訳(メタデータ) (2024-06-27T16:52:01Z) - Graph Relation Distillation for Efficient Biomedical Instance
Segmentation [80.51124447333493]
本稿では,効率的なバイオメディカル・インスタンス・セグメンテーションのためのグラフ関係蒸留手法を提案する。
画像内レベルと画像間レベルの両方に展開する2つのグラフ蒸留方式を導入する。
多くのバイオメディカルデータセットの実験結果から,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-01-12T04:41:23Z) - A Dataset for Hyper-Relational Extraction and a Cube-Filling Approach [59.89749342550104]
本稿では,テキストからより具体的で完全な事実を抽出するハイパーリレーショナル抽出の課題を提案する。
既存のモデルは、3つの実体間の相互作用を考えるモデルを必要とするため、ハイパーリレーショナル抽出を行うことはできない。
テーブル充填手法に着想を得た立方体充填モデルであるCubeREを提案する。
論文 参考訳(メタデータ) (2022-11-18T03:51:28Z) - Learning Representations for Hyper-Relational Knowledge Graphs [35.380689788802776]
複数のアグリゲータを用いて超関係事実の表現を学習するフレームワークを設計する。
実験では、複数のデータセットにまたがるフレームワークの有効性を実証した。
フレームワークにおける各種コンポーネントの重要性を検証するためのアブレーション研究を行っている。
論文 参考訳(メタデータ) (2022-08-30T15:02:14Z) - Repurposing Knowledge Graph Embeddings for Triple Representation via
Weak Supervision [77.34726150561087]
現在の方法では、事前訓練されたモデルからの実体と述語埋め込みを使わずに、スクラッチから三重埋め込みを学習する。
本研究では,知識グラフからトリプルを自動抽出し,事前学習した埋め込みモデルからそれらのペアの類似性を推定する手法を開発した。
これらのペアの類似度スコアは、細い三重表現のためにシームズ様のニューラルネットワークに供給される。
論文 参考訳(メタデータ) (2022-08-22T14:07:08Z) - Relphormer: Relational Graph Transformer for Knowledge Graph
Representations [25.40961076988176]
本稿ではRelphormerと呼ばれる知識グラフ表現のためのTransformerの新しい変種を提案する。
本稿では,関係情報をエンコードし,意味情報を実体や関係内に保持する構造強化型自己認識機構を提案する。
6つのデータセットの実験結果から、Relphormerはベースラインよりも優れたパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2022-05-22T15:30:18Z) - An Adversarial Transfer Network for Knowledge Representation Learning [11.013390624382257]
本稿では,1つ以上の教師の知識グラフから対象の知識へ知識を伝達する逆埋め込み転送ネットワークATransNを提案する。
具体的には,既存の知識表現学習手法に,アライメントされたエンティティペアと近傍にソフト制約を加える。
論文 参考訳(メタデータ) (2021-04-30T05:07:25Z) - Link Prediction on N-ary Relational Data Based on Relatedness Evaluation [61.61555159755858]
我々は,n-aryリレーショナルデータ上でリンク予測を行うNaLPという手法を提案する。
各 n 個の関係事実を、その役割と役割と値のペアの集合として表現する。
実験結果は,提案手法の有効性と有用性を検証した。
論文 参考訳(メタデータ) (2021-04-21T09:06:54Z) - HittER: Hierarchical Transformers for Knowledge Graph Embeddings [85.93509934018499]
複雑な知識グラフにおける実体と関係の表現を学習するためにHittを提案する。
実験結果から,Hittは複数リンク予測において最先端の新たな結果が得られることがわかった。
さらに,HittをBERTに統合する簡単なアプローチを提案し,その効果を2つのFreebaseファクトイド対応データセットで示す。
論文 参考訳(メタデータ) (2020-08-28T18:58:15Z) - Structure-Augmented Text Representation Learning for Efficient Knowledge
Graph Completion [53.31911669146451]
人為的な知識グラフは、様々な自然言語処理タスクに重要な支援情報を提供する。
これらのグラフは通常不完全であり、自動補完を促す。
グラフ埋め込みアプローチ(例えばTransE)は、グラフ要素を密度の高い埋め込みに表現することで構造化された知識を学ぶ。
テキストエンコーディングアプローチ(KG-BERTなど)は、グラフトリプルのテキストとトリプルレベルの文脈化表現を利用する。
論文 参考訳(メタデータ) (2020-04-30T13:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。