論文の概要: Multifaceted Context Representation using Dual Attention for Ontology
Alignment
- arxiv url: http://arxiv.org/abs/2010.11721v2
- Date: Mon, 26 Oct 2020 11:31:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 20:49:09.360810
- Title: Multifaceted Context Representation using Dual Attention for Ontology
Alignment
- Title(参考訳): オントロジーアライメントのための二重注意を用いた多面的文脈表現
- Authors: Vivek Iyer, Arvind Agarwal, Harshit Kumar
- Abstract要約: オントロジーアライメントは、データ統合、データ転送、データ準備など、さまざまな分野に適用できる重要な研究課題である。
We propose VeeAlign, a Deep Learning based model that using a dual-attention mechanism to compute the contextualized representation of a concept to learn alignments。
我々は、異なるドメインや多言語設定の様々なデータセットに対するアプローチを検証するとともに、SOTA法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 6.445605125467574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ontology Alignment is an important research problem that finds application in
various fields such as data integration, data transfer, data preparation etc.
State-of-the-art (SOTA) architectures in Ontology Alignment typically use naive
domain-dependent approaches with handcrafted rules and manually assigned
values, making them unscalable and inefficient. Deep Learning approaches for
ontology alignment use domain-specific architectures that are not only
in-extensible to other datasets and domains, but also typically perform worse
than rule-based approaches due to various limitations including over-fitting of
models, sparsity of datasets etc. In this work, we propose VeeAlign, a Deep
Learning based model that uses a dual-attention mechanism to compute the
contextualized representation of a concept in order to learn alignments. By
doing so, not only does our approach exploit both syntactic and semantic
structure of ontologies, it is also, by design, flexible and scalable to
different domains with minimal effort. We validate our approach on various
datasets from different domains and in multilingual settings, and show its
superior performance over SOTA methods.
- Abstract(参考訳): オントロジアライメント(オントロジアライメント)は、データ統合、データ転送、データ準備など様々な分野のアプリケーションを見つける重要な研究課題である。
オントロジーアライメントにおける最先端の(sota)アーキテクチャは、通常、手作りのルールと手動で割り当てられた値を持つナイーブなドメイン依存のアプローチを用いる。
オントロジーアライメントのためのディープラーニングアプローチは、他のデータセットやドメインに拡張不可能なドメイン固有のアーキテクチャを使用するだけでなく、モデルの過度な適合、データセットのスパーシリティなど、さまざまな制限のため、ルールベースのアプローチよりもパフォーマンスが劣る。
本研究では,概念の文脈的表現を計算してアライメントを学習する,Deep LearningベースのモデルであるVeeAlignを提案する。
そうすることで、我々のアプローチはオントロジーの構文と意味構造の両方を利用するだけでなく、設計によって、最小限の労力で異なるドメインに柔軟でスケーラブルです。
異なるドメインや多言語環境での様々なデータセットに対するアプローチを検証し、soma法よりも優れた性能を示す。
関連論文リスト
- Learning to Generalize Unseen Domains via Multi-Source Meta Learning for Text Classification [71.08024880298613]
テキスト分類の多元的領域一般化について検討する。
本稿では、複数の参照ドメインを使用して、未知のドメインで高い精度を達成可能なモデルをトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T07:46:21Z) - A Few-Shot Approach for Relation Extraction Domain Adaptation using Large Language Models [1.3927943269211591]
本稿では,大規模言語モデルの文脈内学習機能を活用してデータアノテーションを実行する実験を行う。
提案手法は,構造化プロンプトと最小限のエキスパートアノテーションを併用した数発の学習戦略を用いることで,科学的なKG生成モデルのドメイン適応を支援することができることを示す。
論文 参考訳(メタデータ) (2024-08-05T11:06:36Z) - Improving Intrusion Detection with Domain-Invariant Representation Learning in Latent Space [4.871119861180455]
マルチタスク学習を用いた2相表現学習手法を提案する。
我々は、先行空間と潜時空間の間の相互情報の最小化により、潜時空間を解き放つ。
モデルの有効性を複数のサイバーセキュリティデータセットで評価する。
論文 参考訳(メタデータ) (2023-12-28T17:24:13Z) - Multi-Domain Learning From Insufficient Annotations [26.83058974786833]
マルチドメイン学習とは、異なるドメインから収集されたデータセット上にモデルまたはモデルのセットを同時に構築することを指す。
本稿では,アノテーション不足の影響を軽減するために,マルチドメインコントラスト学習という新しい手法を提案する。
5つのデータセットにわたる実験結果から、MDCLは様々なSPモデルに対して顕著な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2023-05-04T11:50:19Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - HRKD: Hierarchical Relational Knowledge Distillation for Cross-domain
Language Model Compression [53.90578309960526]
大規模事前学習言語モデル(PLM)は、従来のニューラルネットワーク手法と比較して圧倒的な性能を示している。
階層的および領域的関係情報の両方を抽出する階層的関係知識蒸留法(HRKD)を提案する。
論文 参考訳(メタデータ) (2021-10-16T11:23:02Z) - Unsupervised Domain Adaptation for Semantic Segmentation via Low-level
Edge Information Transfer [27.64947077788111]
セマンティックセグメンテーションのための教師なしドメイン適応は、合成データに基づいて訓練されたモデルを実際の画像に適応させることを目的としている。
従来の特徴レベルの対数学習手法は、高レベルの意味的特徴に適応するモデルのみを考慮していた。
本稿では,ドメイン間ギャップが小さい低レベルエッジ情報を明示的に利用して意味情報の伝達をガイドする試みについて紹介する。
論文 参考訳(メタデータ) (2021-09-18T11:51:31Z) - Adapting Segmentation Networks to New Domains by Disentangling Latent
Representations [14.050836886292869]
ドメイン適応アプローチは、ラベルを持つソースドメインから取得した知識を関連するラベルを持つターゲットドメインに転送する役割を担っている。
本稿では,教師付きトレーニングと比較して適応戦略の相対的有効性を捉えるための新しい性能指標を提案する。
論文 参考訳(メタデータ) (2021-08-06T09:43:07Z) - Structured Latent Embeddings for Recognizing Unseen Classes in Unseen
Domains [108.11746235308046]
本稿では,異なる領域からの画像を投影することで,ドメインに依存しない遅延埋め込みを学習する手法を提案する。
挑戦的なDomainNetとDomainNet-LSベンチマークの実験は、既存のメソッドよりもアプローチの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-12T17:57:46Z) - Towards Domain-Agnostic Contrastive Learning [103.40783553846751]
そこで本研究では,DACLという対照的学習に対するドメインに依存しない新しいアプローチを提案する。
このアプローチの鍵となるのは、Mixupノイズを使用して、入力レベルと隠された状態レベルの両方で異なるデータサンプルを混合することで、類似した、異種なサンプルを作成することです。
以上の結果から,DACLはガウスノイズなどの他のドメインに依存しないノイズ発生手法よりも優れるだけでなく,SimCLRのようなドメイン固有の手法とうまく結合していることがわかった。
論文 参考訳(メタデータ) (2020-11-09T13:41:56Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。