論文の概要: KERMIT - A Transformer-Based Approach for Knowledge Graph Matching
- arxiv url: http://arxiv.org/abs/2204.13931v1
- Date: Fri, 29 Apr 2022 08:07:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 01:22:24.839323
- Title: KERMIT - A Transformer-Based Approach for Knowledge Graph Matching
- Title(参考訳): KERMIT - 知識グラフマッチングのためのトランスフォーマーベースのアプローチ
- Authors: Sven Hertling, Jan Portisch, Heiko Paulheim
- Abstract要約: 知識グラフとテキスト概念記述の自動マッチングのための最強信号の1つは概念記述である。
2つの知識グラフにおける概念のすべてのテキスト記述のペアワイズ比較を行うことは高価であり、二次的にスケールすることが示されている。
まず,事前学習した文変換器を用いてマッチング候補を生成する。
第2のステップでは、最適な候補を生成するために、微調整変換器クロスエンコーダを使用します。
- 参考スコア(独自算出の注目度): 1.9981375888949477
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: One of the strongest signals for automated matching of knowledge graphs and
ontologies are textual concept descriptions. With the rise of transformer-based
language models, text comparison based on meaning (rather than lexical
features) is available to researchers. However, performing pairwise comparisons
of all textual descriptions of concepts in two knowledge graphs is expensive
and scales quadratically (or even worse if concepts have more than one
description). To overcome this problem, we follow a two-step approach: we first
generate matching candidates using a pre-trained sentence transformer (so
called bi-encoder). In a second step, we use fine-tuned transformer
cross-encoders to generate the best candidates. We evaluate our approach on
multiple datasets and show that it is feasible and produces competitive
results.
- Abstract(参考訳): 知識グラフとオントロジーの自動マッチングのための最強信号の1つは、テキストの概念記述である。
トランスフォーマーベースの言語モデルの増加に伴い、意味に基づくテキスト比較(語彙的特徴ではなく)が研究者に提供されている。
しかし、2つの知識グラフで概念のすべてのテキスト記述をペアで比較することは高価であり、二次的にスケールする(概念が複数の記述を持つ場合)。
この問題を克服するために,我々はまず,事前学習した文変換器(bi-encoder)を用いて,マッチング候補を生成する。
第2のステップでは、最適な候補を生成するために、微調整されたトランスフォーマクロスエンコーダを使用します。
我々は、複数のデータセットに対するアプローチを評価し、それが実現可能であることを示す。
関連論文リスト
- Evaluating Semantic Variation in Text-to-Image Synthesis: A Causal Perspective [50.261681681643076]
本稿では,SemVarEffectとSemVarBenchというベンチマークを用いて,テキスト・画像合成における入力のセマンティックな変化と出力の因果性を評価する。
本研究は,T2I合成コミュニティによるヒューマンインストラクション理解の探索を促進する効果的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2024-10-14T08:45:35Z) - Sentiment analysis in Tourism: Fine-tuning BERT or sentence embeddings
concatenation? [0.0]
変換器からの双方向表現を微調整する手法と2つの埋め込みを結合して、積層した2方向長短期記憶-二方向Gated Recurrent Unitsモデルの性能を向上させる方法の比較研究を行う。
2つの手法のレベルで最高の学習率の探索を行い、各文の埋め込み組み合わせに対して最適な埋め込みの比較を行った。
論文 参考訳(メタデータ) (2023-12-12T23:23:23Z) - Pure Transformers are Powerful Graph Learners [51.36884247453605]
グラフ固有の修正のない標準変換器は、理論と実践の両方において、グラフ学習において有望な結果をもたらす可能性があることを示す。
このアプローチは、理論的には、同変線形層からなる不変グラフネットワーク(2-IGN)と同程度に表現可能であることを証明している。
提案手法は,Tokenized Graph Transformer (TokenGT) を作成した。
論文 参考訳(メタデータ) (2022-07-06T08:13:06Z) - Relphormer: Relational Graph Transformer for Knowledge Graph
Representations [25.40961076988176]
本稿ではRelphormerと呼ばれる知識グラフ表現のためのTransformerの新しい変種を提案する。
本稿では,関係情報をエンコードし,意味情報を実体や関係内に保持する構造強化型自己認識機構を提案する。
6つのデータセットの実験結果から、Relphormerはベースラインよりも優れたパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2022-05-22T15:30:18Z) - SepTr: Separable Transformer for Audio Spectrogram Processing [74.41172054754928]
分離可能トランス (Separable Transformer, SepTr) と呼ばれる新しい視覚変換器アーキテクチャを提案する。
SepTrは2つのトランスフォーマーブロックを逐次的に使用し、1つは同じ周波数ビン内のトークンに、もう1つは同じ時間間隔でトークンに出席する。
我々は3つのベンチマークデータセットで実験を行い、我々のアーキテクチャが従来のビジョントランスフォーマーや他の最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T19:48:43Z) - Hierarchical Sketch Induction for Paraphrase Generation [79.87892048285819]
本稿では、高密度符号化の分解を学習するHRQ-VAE(Hierarchical Refinement Quantized Variational Autoencoders)を紹介する。
HRQ-VAEを用いて、入力文の構文形式を階層化の経路としてエンコードすることで、テスト時の構文スケッチをより容易に予測できる。
論文 参考訳(メタデータ) (2022-03-07T15:28:36Z) - Unleashing the Power of Transformer for Graphs [28.750700720796836]
Transformerはグラフを扱う際にスケーラビリティの問題に悩まされる。
デュアルエンコードトランス (DET) と呼ばれる新しいトランスアーキテクチャを提案する。
DETは、接続された隣人からの情報を集約する構造エンコーダと、意味的に有用な遠隔ノードにフォーカスする意味エンコーダを備えている。
論文 参考訳(メタデータ) (2022-02-18T06:40:51Z) - Matching with Transformers in MELT [1.2891210250935146]
我々は、オントロジーと知識グラフマッチングに適したMELTフレームワークで簡単に使える実装を提供する。
変換器をベースとしたフィルタは,ハイリコールアライメントによって適切な対応を選択するのに役立つことを示す。
論文 参考訳(メタデータ) (2021-09-15T16:07:43Z) - Transformer Based Language Models for Similar Text Retrieval and Ranking [0.0]
本稿では,ニューラルトランスモデルを類似したテキスト検索とランキングに効果的に適用するための新しいアプローチを提案する。
提案手法は, 単語のバッグ・オブ・ワード・ベースのステップを排除し, クエリに共通する非単語がなくても, 精度よく検索結果を検索・ランク付けすることができる。
論文 参考訳(メタデータ) (2020-05-10T06:12:53Z) - Structure-Augmented Text Representation Learning for Efficient Knowledge
Graph Completion [53.31911669146451]
人為的な知識グラフは、様々な自然言語処理タスクに重要な支援情報を提供する。
これらのグラフは通常不完全であり、自動補完を促す。
グラフ埋め込みアプローチ(例えばTransE)は、グラフ要素を密度の高い埋め込みに表現することで構造化された知識を学ぶ。
テキストエンコーディングアプローチ(KG-BERTなど)は、グラフトリプルのテキストとトリプルレベルの文脈化表現を利用する。
論文 参考訳(メタデータ) (2020-04-30T13:50:34Z) - Auto-Encoding Twin-Bottleneck Hashing [141.5378966676885]
本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
論文 参考訳(メタデータ) (2020-02-27T05:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。