論文の概要: Multifaceted Context Representation using Dual Attention for Ontology
Alignment
- arxiv url: http://arxiv.org/abs/2010.11721v2
- Date: Mon, 26 Oct 2020 11:31:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 20:49:09.360810
- Title: Multifaceted Context Representation using Dual Attention for Ontology
Alignment
- Title(参考訳): オントロジーアライメントのための二重注意を用いた多面的文脈表現
- Authors: Vivek Iyer, Arvind Agarwal, Harshit Kumar
- Abstract要約: オントロジーアライメントは、データ統合、データ転送、データ準備など、さまざまな分野に適用できる重要な研究課題である。
We propose VeeAlign, a Deep Learning based model that using a dual-attention mechanism to compute the contextualized representation of a concept to learn alignments。
我々は、異なるドメインや多言語設定の様々なデータセットに対するアプローチを検証するとともに、SOTA法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 6.445605125467574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ontology Alignment is an important research problem that finds application in
various fields such as data integration, data transfer, data preparation etc.
State-of-the-art (SOTA) architectures in Ontology Alignment typically use naive
domain-dependent approaches with handcrafted rules and manually assigned
values, making them unscalable and inefficient. Deep Learning approaches for
ontology alignment use domain-specific architectures that are not only
in-extensible to other datasets and domains, but also typically perform worse
than rule-based approaches due to various limitations including over-fitting of
models, sparsity of datasets etc. In this work, we propose VeeAlign, a Deep
Learning based model that uses a dual-attention mechanism to compute the
contextualized representation of a concept in order to learn alignments. By
doing so, not only does our approach exploit both syntactic and semantic
structure of ontologies, it is also, by design, flexible and scalable to
different domains with minimal effort. We validate our approach on various
datasets from different domains and in multilingual settings, and show its
superior performance over SOTA methods.
- Abstract(参考訳): オントロジアライメント(オントロジアライメント)は、データ統合、データ転送、データ準備など様々な分野のアプリケーションを見つける重要な研究課題である。
オントロジーアライメントにおける最先端の(sota)アーキテクチャは、通常、手作りのルールと手動で割り当てられた値を持つナイーブなドメイン依存のアプローチを用いる。
オントロジーアライメントのためのディープラーニングアプローチは、他のデータセットやドメインに拡張不可能なドメイン固有のアーキテクチャを使用するだけでなく、モデルの過度な適合、データセットのスパーシリティなど、さまざまな制限のため、ルールベースのアプローチよりもパフォーマンスが劣る。
本研究では,概念の文脈的表現を計算してアライメントを学習する,Deep LearningベースのモデルであるVeeAlignを提案する。
そうすることで、我々のアプローチはオントロジーの構文と意味構造の両方を利用するだけでなく、設計によって、最小限の労力で異なるドメインに柔軟でスケーラブルです。
異なるドメインや多言語環境での様々なデータセットに対するアプローチを検証し、soma法よりも優れた性能を示す。
関連論文リスト
- Improving Intrusion Detection with Domain-Invariant Representation
Learning in Latent Space [5.225961235069437]
マルチタスク学習を用いた2相表現学習手法を提案する。
我々は、先行空間と潜時空間の間の相互情報の最小化により、潜時空間を解き放つ。
モデルの有効性を複数のサイバーセキュリティデータセットで評価する。
論文 参考訳(メタデータ) (2023-12-28T17:24:13Z) - Domain-Agnostic Neural Architecture for Class Incremental Continual
Learning in Document Processing Platform [3.630365560970225]
学習勾配を持つ最近の手法は、そのような設定に苦しむか、メモリバッファのような制限があることが示されている。
本稿では,各クラスからサンプルを別々に提示した場合に,高性能な分類器の訓練を可能にする,Mixture of Expertsモデルに基づく完全微分可能なアーキテクチャを提案する。
各種ドメインに適用可能であること,実運用環境でオンライン学習できることを実証する徹底的な実験を行った。
論文 参考訳(メタデータ) (2023-07-11T16:01:44Z) - Multi-Domain Learning From Insufficient Annotations [26.83058974786833]
マルチドメイン学習とは、異なるドメインから収集されたデータセット上にモデルまたはモデルのセットを同時に構築することを指す。
本稿では,アノテーション不足の影響を軽減するために,マルチドメインコントラスト学習という新しい手法を提案する。
5つのデータセットにわたる実験結果から、MDCLは様々なSPモデルに対して顕著な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2023-05-04T11:50:19Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [66.53828093487269]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - HRKD: Hierarchical Relational Knowledge Distillation for Cross-domain
Language Model Compression [53.90578309960526]
大規模事前学習言語モデル(PLM)は、従来のニューラルネットワーク手法と比較して圧倒的な性能を示している。
階層的および領域的関係情報の両方を抽出する階層的関係知識蒸留法(HRKD)を提案する。
論文 参考訳(メタデータ) (2021-10-16T11:23:02Z) - Unsupervised Domain Adaptation for Semantic Segmentation via Low-level
Edge Information Transfer [27.64947077788111]
セマンティックセグメンテーションのための教師なしドメイン適応は、合成データに基づいて訓練されたモデルを実際の画像に適応させることを目的としている。
従来の特徴レベルの対数学習手法は、高レベルの意味的特徴に適応するモデルのみを考慮していた。
本稿では,ドメイン間ギャップが小さい低レベルエッジ情報を明示的に利用して意味情報の伝達をガイドする試みについて紹介する。
論文 参考訳(メタデータ) (2021-09-18T11:51:31Z) - Adapting Segmentation Networks to New Domains by Disentangling Latent
Representations [14.050836886292869]
ドメイン適応アプローチは、ラベルを持つソースドメインから取得した知識を関連するラベルを持つターゲットドメインに転送する役割を担っている。
本稿では,教師付きトレーニングと比較して適応戦略の相対的有効性を捉えるための新しい性能指標を提案する。
論文 参考訳(メタデータ) (2021-08-06T09:43:07Z) - Structured Latent Embeddings for Recognizing Unseen Classes in Unseen
Domains [108.11746235308046]
本稿では,異なる領域からの画像を投影することで,ドメインに依存しない遅延埋め込みを学習する手法を提案する。
挑戦的なDomainNetとDomainNet-LSベンチマークの実験は、既存のメソッドよりもアプローチの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-12T17:57:46Z) - Towards Domain-Agnostic Contrastive Learning [103.40783553846751]
そこで本研究では,DACLという対照的学習に対するドメインに依存しない新しいアプローチを提案する。
このアプローチの鍵となるのは、Mixupノイズを使用して、入力レベルと隠された状態レベルの両方で異なるデータサンプルを混合することで、類似した、異種なサンプルを作成することです。
以上の結果から,DACLはガウスノイズなどの他のドメインに依存しないノイズ発生手法よりも優れるだけでなく,SimCLRのようなドメイン固有の手法とうまく結合していることがわかった。
論文 参考訳(メタデータ) (2020-11-09T13:41:56Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。