論文の概要: Inductive Relation Prediction by BERT
- arxiv url: http://arxiv.org/abs/2103.07102v1
- Date: Fri, 12 Mar 2021 06:27:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 13:26:28.589561
- Title: Inductive Relation Prediction by BERT
- Title(参考訳): BERTによる誘導関係予測
- Authors: Hanwen Zha, Zhiyu Chen and Xifeng Yan
- Abstract要約: BERTRLはインダクティブとトランスダクティブの両方の設定で18例中15例でSOTAを上回っています。
数ショットの学習で強力な一般化能力を示し、説明可能である。
- 参考スコア(独自算出の注目度): 19.445009462437355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Relation prediction in knowledge graphs is dominated by embedding based
methods which mainly focus on the transductive setting. Unfortunately, they are
not able to handle inductive learning where unseen entities and relations are
present and cannot take advantage of prior knowledge. Furthermore, their
inference process is not easily explainable. In this work, we propose an
all-in-one solution, called BERTRL (BERT-based Relational Learning), which
leverages pre-trained language model and fine-tunes it by taking relation
instances and their possible reasoning paths as training samples. BERTRL
outperforms the SOTAs in 15 out of 18 cases in both inductive and transductive
settings. Meanwhile, it demonstrates strong generalization capability in
few-shot learning and is explainable.
- Abstract(参考訳): 知識グラフにおける関係予測は、主にトランスダクティブな設定に焦点を当てた埋め込みベース手法によって支配される。
残念なことに、彼らは見えない実体や関係が存在する帰納的学習を処理できず、事前の知識を活用できない。
さらに、推論プロセスは簡単に説明できない。
本研究では、事前学習した言語モデルを活用し、関係インスタンスとその可能な推論パスをトレーニングサンプルとして取得することにより、それを微調整する、BERTRL(BERT-based Relational Learning)と呼ばれるオールインワンソリューションを提案する。
BERTRLはインダクティブとトランスダクティブの両方の設定で18例中15例でSOTAを上回っています。
一方,単発学習では強力な一般化能力を示し,説明可能である。
関連論文リスト
- Pre-training and Diagnosing Knowledge Base Completion Models [58.07183284468881]
我々は,事実の集合から他の集合への知識伝達へのアプローチを,エンティティや関係マッチングを必要とせずに導入し,分析する。
主な貢献は、構造化されていないテキストから収集された事実の大規模事前学習を利用する方法である。
得られた事前学習モデルをよりよく理解するために,オープン知識ベースコンプリートのための事前学習モデルの解析のための新しいデータセットを導入する。
論文 参考訳(メタデータ) (2024-01-27T15:20:43Z) - Towards Few-shot Inductive Link Prediction on Knowledge Graphs: A
Relational Anonymous Walk-guided Neural Process Approach [49.00753238429618]
知識グラフ上のインダクティブリンク予測は,少数ショットリンクを観測した未確認エンティティのリンク不足を予測することを目的としている。
近年の帰納的手法は、目に見えない実体を取り巻く部分グラフを用いて意味情報を取得し、リンクを誘導的に予測する。
本稿では,知識グラフ上の数ショットの帰納的リンク予測をRawNPと表記する,新しいリレーショナル匿名型歩行誘導ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-06-26T12:02:32Z) - Multi-Aspect Explainable Inductive Relation Prediction by Sentence
Transformer [60.75757851637566]
本稿では,モデル学習に先立って信頼できない経路をフィルタリングし,モデル性能を高めるための関係経路カバレッジと関係経路信頼の概念を紹介する。
知識グラフにおける帰納関係を予測するために,知識推論文変換器(KRST)を提案する。
論文 参考訳(メタデータ) (2023-01-04T15:33:49Z) - An Open Challenge for Inductive Link Prediction on Knowledge Graphs [0.7960322329952452]
知識グラフ(KG)に対する表現学習の新たなトレンドは、帰納的リンク予測タスクを越えている。
関心が高まっているにもかかわらず、帰納的表現学習手法を評価するには十分なベンチマークがない。
我々は,KGインダクティブリンク予測の新しいオープンチャレンジであるILPC 2022を紹介する。
論文 参考訳(メタデータ) (2022-03-03T05:24:09Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z) - Syntactic Structure Distillation Pretraining For Bidirectional Encoders [49.483357228441434]
本稿では,BERTプレトレーニングに構文バイアスを注入するための知識蒸留手法を提案する。
我々は,構文的 LM から単語の周辺分布を抽出する。
本研究は,大量のデータを利用する表現学習者においても,構文バイアスの利点を示すものである。
論文 参考訳(メタデータ) (2020-05-27T16:44:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。