論文の概要: Matching with Transformers in MELT
- arxiv url: http://arxiv.org/abs/2109.07401v1
- Date: Wed, 15 Sep 2021 16:07:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 16:49:48.835151
- Title: Matching with Transformers in MELT
- Title(参考訳): MELTにおける変圧器とのマッチング
- Authors: Sven Hertling, Jan Portisch, Heiko Paulheim
- Abstract要約: 我々は、オントロジーと知識グラフマッチングに適したMELTフレームワークで簡単に使える実装を提供する。
変換器をベースとしたフィルタは,ハイリコールアライメントによって適切な対応を選択するのに役立つことを示す。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the strongest signals for automated matching of ontologies and
knowledge graphs are the textual descriptions of the concepts. The methods that
are typically applied (such as character- or token-based comparisons) are
relatively simple, and therefore do not capture the actual meaning of the
texts. With the rise of transformer-based language models, text comparison
based on meaning (rather than lexical features) is possible. In this paper, we
model the ontology matching task as classification problem and present
approaches based on transformer models. We further provide an easy to use
implementation in the MELT framework which is suited for ontology and knowledge
graph matching. We show that a transformer-based filter helps to choose the
correct correspondences given a high-recall alignment and already achieves a
good result with simple alignment post-processing methods.
- Abstract(参考訳): オントロジーと知識グラフの自動マッチングのための最も強力な信号の1つは、概念のテキスト記述である。
一般的に適用される方法(文字やトークンベースの比較など)は比較的単純であり、したがってテキストの実際の意味を捉えない。
トランスフォーマーベースの言語モデルの増加に伴い、意味に基づくテキスト比較(語彙的特徴ではなく)が可能となる。
本稿では,オントロジマッチングタスクを分類問題としてモデル化し,トランスフォーマーモデルに基づくアプローチを提案する。
また,オントロジーや知識グラフマッチングに適したMELTフレームワークの実装も容易である。
変換器ベースのフィルタは,高リコールアライメントが与えられた場合の正しい対応を選択するのに役立ち,簡単なアライメント後処理ですでに良好な結果が得られることを示す。
関連論文リスト
- Evaluating Semantic Variation in Text-to-Image Synthesis: A Causal Perspective [50.261681681643076]
本稿では,SemVarEffectとSemVarBenchというベンチマークを用いて,テキスト・画像合成における入力のセマンティックな変化と出力の因果性を評価する。
本研究は,T2I合成コミュニティによるヒューマンインストラクション理解の探索を促進する効果的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2024-10-14T08:45:35Z) - Algorithmic Capabilities of Random Transformers [49.73113518329544]
埋め込み層のみを最適化したランダムトランスフォーマーによって、どのような関数が学習できるかを検討する。
これらのランダムなトランスフォーマーは、幅広い意味のあるアルゴリズムタスクを実行することができる。
以上の結果から,これらのモデルが訓練される前にも,アルゴリズム能力がトランスフォーマに存在することが示唆された。
論文 参考訳(メタデータ) (2024-10-06T06:04:23Z) - Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - LRANet: Towards Accurate and Efficient Scene Text Detection with
Low-Rank Approximation Network [63.554061288184165]
低ランク近似に基づく新しいパラメータ化テキスト形状法を提案する。
異なるテキストの輪郭間の形状相関を探索することにより, 形状表現における一貫性, コンパクト性, 単純性, 頑健性を実現する。
我々はLRANetという名前の正確で効率的な任意の形状のテキスト検出器を実装した。
論文 参考訳(メタデータ) (2023-06-27T02:03:46Z) - Learning Accurate Template Matching with Differentiable Coarse-to-Fine
Correspondence Refinement [28.00275083733545]
本稿では, 精度の高いテンプレートマッチング手法を提案する。
変圧器によって提供される新規な構造認識情報に基づいて、粗い対応を用いて初期ワープを推定する。
提案手法は最先端の手法やベースラインよりも大幅に優れており,実データにおいても,優れた一般化能力と視覚的検証が可能な結果が得られる。
論文 参考訳(メタデータ) (2023-03-15T08:24:10Z) - TokenFlow: Rethinking Fine-grained Cross-modal Alignment in
Vision-Language Retrieval [30.429340065755436]
我々は, 細粒度クロスモーダルアライメントのためのモデルに依存しない新しい定式化を考案した。
最適輸送理論に着想を得て,提案手法のインスタンス化であるemphTokenFlowを紹介した。
論文 参考訳(メタデータ) (2022-09-28T04:11:05Z) - Mixed-effects transformers for hierarchical adaptation [1.9105318290910576]
本稿では,階層的に構造化されたプレフィックスを学習するための新しいアプローチであるMulti-Efects Transformer(MET)を紹介する。
一般的な混合効果モデルのクラスがトランスフォーマーベースのアーキテクチャにどのように拡張されるかを示す。
論文 参考訳(メタデータ) (2022-05-03T19:34:15Z) - KERMIT - A Transformer-Based Approach for Knowledge Graph Matching [1.9981375888949477]
知識グラフとテキスト概念記述の自動マッチングのための最強信号の1つは概念記述である。
2つの知識グラフにおける概念のすべてのテキスト記述のペアワイズ比較を行うことは高価であり、二次的にスケールすることが示されている。
まず,事前学習した文変換器を用いてマッチング候補を生成する。
第2のステップでは、最適な候補を生成するために、微調整変換器クロスエンコーダを使用します。
論文 参考訳(メタデータ) (2022-04-29T08:07:17Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z) - Transformer-F: A Transformer network with effective methods for learning
universal sentence representation [8.225067988604351]
Transformerモデルは、自然言語処理で文表現に広く使われている。
本稿では,トランスフォーマーの性能向上のための2つの手法を提案する。
論文 参考訳(メタデータ) (2021-07-02T03:20:11Z) - Match-Ignition: Plugging PageRank into Transformer for Long-form Text
Matching [66.71886789848472]
実効性と効率性に対処する新しい階層型ノイズフィルタリングモデルであるMatch-Ignitionを提案する。
基本的なアイデアは、よく知られたPageRankアルゴリズムをTransformerに接続し、文と単語レベルの騒々しい情報を識別およびフィルタリングすることです。
文が長文の基本単位であるため、ノイズの多い文はたいてい簡単に検出できるので、PageRankを直接使用してそのような情報をフィルタリングする。
論文 参考訳(メタデータ) (2021-01-16T10:34:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。