論文の概要: Open Knowledge Base Canonicalization with Multi-task Learning
- arxiv url: http://arxiv.org/abs/2403.14733v1
- Date: Thu, 21 Mar 2024 08:03:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 21:21:55.256263
- Title: Open Knowledge Base Canonicalization with Multi-task Learning
- Title(参考訳): マルチタスク学習によるオープン知識ベース正準化
- Authors: Bingchen Liu, Huang Peng, Weixin Zeng, Xiang Zhao, Shijun Liu, Li Pan,
- Abstract要約: 大規模なオープン知識ベース(OKB)は、Web検索のような世界規模のWeb上の多くの知識駆動アプリケーションに不可欠なものである。
OKBの名詞句と関係句は、しばしば冗長性と曖昧さに悩まされ、OKBの正準化の調査を要求する。
現在のソリューションは、高度なクラスタリングアルゴリズムを考案し、知識グラフ埋め込み(KGE)を使用して、標準化プロセスをさらに促進することでOKB標準化に対処している。
我々は、OKB標準化に取り組むためにマルチタスク学習フレームワーク、MulCanonを提案しました。
- 参考スコア(独自算出の注目度): 18.053863554106307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The construction of large open knowledge bases (OKBs) is integral to many knowledge-driven applications on the world wide web such as web search. However, noun phrases and relational phrases in OKBs often suffer from redundancy and ambiguity, which calls for the investigation on OKB canonicalization. Current solutions address OKB canonicalization by devising advanced clustering algorithms and using knowledge graph embedding (KGE) to further facilitate the canonicalization process. Nevertheless, these works fail to fully exploit the synergy between clustering and KGE learning, and the methods designed for these subtasks are sub-optimal. To this end, we put forward a multi-task learning framework, namely MulCanon, to tackle OKB canonicalization. In addition, diffusion model is used in the soft clustering process to improve the noun phrase representations with neighboring information, which can lead to more accurate representations. MulCanon unifies the learning objectives of these sub-tasks, and adopts a two-stage multi-task learning paradigm for training. A thorough experimental study on popular OKB canonicalization benchmarks validates that MulCanon can achieve competitive canonicalization results.
- Abstract(参考訳): 大規模オープンな知識ベース(OKB)の構築は、Web検索のような世界規模のWeb上で多くの知識駆動型アプリケーションに不可欠である。
しかし、OKBの名詞句や関係句はしばしば冗長性と曖昧さに悩まされ、OKBの正準化に関する調査が要求される。
現在のソリューションは、高度なクラスタリングアルゴリズムを考案し、知識グラフ埋め込み(KGE)を使用して、標準化プロセスをさらに促進することでOKB標準化に対処している。
それでもこれらの研究はクラスタリングとKGE学習の相乗効果を完全に活用できず、これらのサブタスク用に設計された手法は準最適である。
そこで我々は,OKB標準化に取り組むためにマルチタスク学習フレームワークであるMulCanonを提案する。
さらに、拡散モデルはソフトクラスタリングプロセスにおいて、近隣情報による名詞句表現を改善するために使用され、より正確な表現につながる可能性がある。
MulCanonはこれらのサブタスクの学習目標を統一し、トレーニングに2段階のマルチタスク学習パラダイムを採用する。
一般的なOKB正準化ベンチマークに関する徹底的な実験的研究は、MulCanonが競合正準化結果を達成できることを検証する。
関連論文リスト
- Deep Boosting Learning: A Brand-new Cooperative Approach for Image-Text Matching [53.05954114863596]
画像テキストマッチングのための新しいDeep Boosting Learning (DBL)アルゴリズムを提案する。
アンカーブランチは、まずデータプロパティに関する洞察を提供するために訓練される。
ターゲットブランチは、一致したサンプルと未一致のサンプルとの相対距離をさらに拡大するために、より適応的なマージン制約を同時に課される。
論文 参考訳(メタデータ) (2024-04-28T08:44:28Z) - Open Knowledge Base Canonicalization with Multi-task Unlearning [19.130159457887]
MulCanonは、OKB標準化における機械学習問題に取り組むマルチタスクアンラーニングフレームワークである。
一般的なOKB標準化データセットに関する徹底的な実験的研究は、MulCanonが高度な機械学習効果を達成することを検証する。
論文 参考訳(メタデータ) (2023-10-25T07:13:06Z) - Self-regulating Prompts: Foundational Model Adaptation without
Forgetting [112.66832145320434]
本稿では,PromptSRCと呼ばれる自己正規化フレームワークを提案する。
PromptSRCはタスク固有の汎用表現とタスクに依存しない汎用表現の両方に最適化するプロンプトを導く。
論文 参考訳(メタデータ) (2023-07-13T17:59:35Z) - Global Knowledge Calibration for Fast Open-Vocabulary Segmentation [124.74256749281625]
本稿では,各学習カテゴリの同義語群を生成するテキスト多様化戦略を提案する。
また,CLIPの汎用的な知識を維持するために,テキスト誘導型知識蒸留法を用いている。
提案手法は, 各種データセットに対して頑健な一般化性能を実現する。
論文 参考訳(メタデータ) (2023-03-16T09:51:41Z) - Neural Coreference Resolution based on Reinforcement Learning [53.73316523766183]
コアレゾリューションシステムは2つのサブタスクを解決する必要がある。
ひとつのタスクは、潜在的な言及のすべてを検出することであり、もう1つは、可能な言及ごとに前者のリンクを学習することである。
本稿では,アクターをベースとした強化学習型ニューラルコア参照分解システムを提案する。
論文 参考訳(メタデータ) (2022-12-18T07:36:35Z) - Joint Open Knowledge Base Canonicalization and Linking [24.160755953937763]
オープンナレッジベースにおける名詞句(NP)と関係句(RP)は正規化されていない。
本稿では,因子グラフモデルに基づく新しいフレームワークJOCLを提案する。
論文 参考訳(メタデータ) (2022-12-02T14:38:58Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - CLOP: Video-and-Language Pre-Training with Knowledge Regularizations [43.09248976105326]
ビデオと言語による事前学習は、一般化可能な表現を学習するための有望な結果を示している。
このような表現形式を構造的知識として表現し、複数の粒度のリッチな意味論を表現する。
知識正規化を用いたCLOP(Cross-modaL knedgeOwl-enhanced Pre-training)法を提案する。
論文 参考訳(メタデータ) (2022-11-07T05:32:12Z) - Multi-View Clustering for Open Knowledge Base Canonicalization [9.976636206355394]
大規模オープンナレッジベース(OKB)における名詞句と関係句は標準化されていない。
CMVCは、知識の2つのビューを協調的に活用し、OKBを標準化するための新しい教師なしフレームワークである。
我々は,複数の実世界のOKBデータセットに対して,最先端の手法に対する広範な実験を通じて,我々のフレームワークの優位性を実証する。
論文 参考訳(メタデータ) (2022-06-22T14:23:16Z) - Supporting Vision-Language Model Inference with Confounder-pruning Knowledge Prompt [71.77504700496004]
視覚言語モデルは、オープンセットの視覚概念を扱うために、画像とテキストのペアを共通の空間に整列させることで事前訓練される。
事前訓練されたモデルの転送可能性を高めるため、最近の研究では、固定または学習可能なプロンプトが採用されている。
しかし、どのようにして、どのプロンプトが推論性能を改善するのかは、まだ不明である。
論文 参考訳(メタデータ) (2022-05-23T07:51:15Z) - Joint Entity and Relation Canonicalization in Open Knowledge Graphs
using Variational Autoencoders [11.259587284318835]
オープンナレッジグラフの名詞句と関係句は正規化されず、冗長で曖昧な主語関係対象のトリプルが爆発する。
まず、名詞句と関係句の両方の埋め込み表現を生成し、次にクラスタリングアルゴリズムを使用して、埋め込みを機能としてグループ化します。
本研究では,組込みとクラスタ割り当ての両方をエンドツーエンドアプローチで学習する共同モデルであるCUVA(Canonicalizing Using Variational AutoEncoders)を提案する。
論文 参考訳(メタデータ) (2020-12-08T22:58:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。