論文の概要: Knowledge Base Completion Meets Transfer Learning
- arxiv url: http://arxiv.org/abs/2108.13073v1
- Date: Mon, 30 Aug 2021 09:13:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:47:40.285645
- Title: Knowledge Base Completion Meets Transfer Learning
- Title(参考訳): 知識ベースコンプリートが転校学習を満たす
- Authors: Vid Kocijan, Thomas Lukasiewicz
- Abstract要約: 知識ベース補完の目的は、知識ベースにおける既存の事実から目に見えない事実を予測することである。
本稿では,ある事実の集合から別の事実への知識の伝達において,エンティティや関係マッチングを必要とせずに最初のアプローチを導入する。
- 参考スコア(独自算出の注目度): 43.89253223499761
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The aim of knowledge base completion is to predict unseen facts from existing
facts in knowledge bases. In this work, we introduce the first approach for
transfer of knowledge from one collection of facts to another without the need
for entity or relation matching. The method works for both canonicalized
knowledge bases and uncanonicalized or open knowledge bases, i.e., knowledge
bases where more than one copy of a real-world entity or relation may exist.
Such knowledge bases are a natural output of automated information extraction
tools that extract structured data from unstructured text. Our main
contribution is a method that can make use of a large-scale pre-training on
facts, collected from unstructured text, to improve predictions on structured
data from a specific domain. The introduced method is the most impactful on
small datasets such as ReVerb20K, where we obtained 6% absolute increase of
mean reciprocal rank and 65% relative decrease of mean rank over the previously
best method, despite not relying on large pre-trained models like BERT.
- Abstract(参考訳): 知識ベース補完の目的は、知識ベースにおける既存の事実から見当たらない事実を予測することである。
本研究では,ある事実の集合から別の事実への知識伝達において,エンティティや関係マッチングを必要とせずに最初のアプローチを導入する。
この方法は、正準化された知識ベースと、非カノニカル化またはオープンな知識ベース、すなわち、実世界の実体または関係の複数のコピーが存在する知識ベースの両方に作用する。
このような知識ベースは、構造化されていないテキストから構造化データを抽出する自動情報抽出ツールの自然な出力である。
私たちの主な貢献は、非構造化テキストから収集した事実を大規模に事前学習して、特定のドメインから構造化データの予測を改善する方法です。
提案手法はReVerb20Kのような小さなデータセットに最も影響があり, BERTのような大規模事前学習モデルに依存しないにもかかわらず, 平均相互ランクの6%の絶対的な増加と平均ランクの65%の相対的な減少が得られた。
関連論文リスト
- Informed Meta-Learning [55.2480439325792]
メタラーニングとインシデントMLは、事前知識をMLパイプラインに組み込むための2つのアプローチとして際立っている。
我々は,非構造化知識表現からの事前の取り込みを容易にする,情報メタラーニングというハイブリッドパラダイムを定式化する。
データ効率、観測ノイズに対する堅牢性、タスク分散シフトを改善する上で、情報メタラーニングの潜在的な利点を実証する。
論文 参考訳(メタデータ) (2024-02-25T15:08:37Z) - Pre-training and Diagnosing Knowledge Base Completion Models [58.07183284468881]
我々は,事実の集合から他の集合への知識伝達へのアプローチを,エンティティや関係マッチングを必要とせずに導入し,分析する。
主な貢献は、構造化されていないテキストから収集された事実の大規模事前学習を利用する方法である。
得られた事前学習モデルをよりよく理解するために,オープン知識ベースコンプリートのための事前学習モデルの解析のための新しいデータセットを導入する。
論文 参考訳(メタデータ) (2024-01-27T15:20:43Z) - Utilizing Domain Knowledge: Robust Machine Learning for Building Energy
Prediction with Small, Inconsistent Datasets [1.1081836812143175]
機械学習(ML)アプリケーションに対する膨大なデータ需要は、現在ボトルネックとなっている。
本稿では,先行知識とデータ駆動手法を組み合わせることで,データの依存性を大幅に低減する手法を提案する。
知識符号化データ駆動手法としてCBMLをエネルギー効率の高い建築工学の文脈で検討する。
論文 参考訳(メタデータ) (2023-01-23T08:56:11Z) - Schema-aware Reference as Prompt Improves Data-Efficient Knowledge Graph
Construction [57.854498238624366]
本稿では,データ効率のよい知識グラフ構築のためのRAP(Schema-Aware Reference As Prompt)の検索手法を提案する。
RAPは、人間の注釈付きおよび弱教師付きデータから受け継いだスキーマと知識を、各サンプルのプロンプトとして動的に活用することができる。
論文 参考訳(メタデータ) (2022-10-19T16:40:28Z) - Knowledge Enhanced Fine-Tuning for Better Handling Unseen Entities in
Dialogue Generation [33.806361531386685]
1)マスキングされた単語を解釈し,その文脈からマスキングされたエンティティの意味を推測する,2)コンテキストに基づいてエンティティのハイパーネムを予測する,ハイパーネム生成という2つの補助的訓練目標を導入する。
2つの対話コーパスの実験結果から,本手法の有効性を,利用可能な知識と利用できない設定の両方で検証した。
論文 参考訳(メタデータ) (2021-09-12T11:13:19Z) - Information fusion between knowledge and data in Bayesian network
structure learning [5.994412766684843]
本稿では,オープンソースのベイジィス構造学習システムで実装された情報融合手法について述べる。
結果は、限定データとビッグデータの両方で示され、ベイジスで利用可能なBN構造学習アルゴリズムが3つ適用されている。
論文 参考訳(メタデータ) (2021-01-31T15:45:29Z) - Self-training Improves Pre-training for Natural Language Understanding [63.78927366363178]
我々は、半教師付き学習を通じてラベルのないデータを活用する別の方法として、自己学習について研究する。
本稿では,ラベル付きデータからタスク固有のクエリの埋め込みを計算するデータ拡張手法であるSentAugmentを紹介する。
我々のアプローチは、標準的なテキスト分類ベンチマークで最大2.6%の改善を達成し、スケーラブルで効果的な自己学習に繋がる。
論文 参考訳(メタデータ) (2020-10-05T17:52:25Z) - Towards a Flexible Embedding Learning Framework [15.604564543883122]
本稿では,学習表現に組み込むことができる関係性の観点から柔軟な埋め込み学習フレームワークを提案する。
サンプリング機構は、入力と出力埋め込みによって捕捉された情報との直接接続を確立するために慎重に設計される。
実験の結果,提案するフレームワークは,関連エンティティ・リレーショナル・マトリクスのセットと合わせて,様々なデータマイニングタスクにおける既存の最先端アプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-09-23T08:00:56Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。