論文の概要: Are Missing Links Predictable? An Inferential Benchmark for Knowledge
Graph Completion
- arxiv url: http://arxiv.org/abs/2108.01387v1
- Date: Tue, 3 Aug 2021 09:51:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 14:02:16.011616
- Title: Are Missing Links Predictable? An Inferential Benchmark for Knowledge
Graph Completion
- Title(参考訳): リンク不足は予測可能か?
知識グラフ補完のための推論ベンチマーク
- Authors: Yixin Cao, Kuang Jun, Ming Gao, Aoying Zhou, Yonggang Wen and Tat-Seng
Chua
- Abstract要約: InferWikiは推論能力、仮定、パターンの既存のベンチマークを改善している。
各テストサンプルは、トレーニングセットの支持データで予測可能である。
実験では,大きさや構造が異なるInferWikiの2つの設定をキュレートし,比較データセットとしてCoDExに構築プロセスを適用する。
- 参考スコア(独自算出の注目度): 79.07695173192472
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present InferWiki, a Knowledge Graph Completion (KGC) dataset that
improves upon existing benchmarks in inferential ability, assumptions, and
patterns. First, each testing sample is predictable with supportive data in the
training set. To ensure it, we propose to utilize rule-guided train/test
generation, instead of conventional random split. Second, InferWiki initiates
the evaluation following the open-world assumption and improves the inferential
difficulty of the closed-world assumption, by providing manually annotated
negative and unknown triples. Third, we include various inference patterns
(e.g., reasoning path length and types) for comprehensive evaluation. In
experiments, we curate two settings of InferWiki varying in sizes and
structures, and apply the construction process on CoDEx as comparative
datasets. The results and empirical analyses demonstrate the necessity and
high-quality of InferWiki. Nevertheless, the performance gap among various
inferential assumptions and patterns presents the difficulty and inspires
future research direction. Our datasets can be found in
https://github.com/TaoMiner/inferwiki
- Abstract(参考訳): inferwikiは知識グラフ補完(kgc)データセットで、推論能力、仮定、パターンにおいて既存のベンチマークを改善します。
まず、各テストサンプルはトレーニングセットの支持データで予測可能である。
そこで本研究では,従来のランダムスプリットではなく,ルール誘導型列車/テスト生成の利用を提案する。
第二に、InferWikiは、オープンワールドの仮定に従って評価を開始し、手動で注釈付けされた負と未知のトリプルを提供することで、クローズドワールドの仮定の推論困難を改善する。
第3に、包括的評価のための様々な推論パターン(例えば、経路長と型)を含める。
実験では,大きさや構造が異なるInferWikiの2つの設定をキュレートし,比較データセットとしてCoDExに構築プロセスを適用する。
結果と実証分析によりinferwikiの必要性と品質が示された。
それにもかかわらず、様々な仮定とパターン間の性能ギャップは、その難しさを示し、将来の研究方向性を刺激する。
私たちのデータセットはhttps://github.com/TaoMiner/inferwikiにある。
関連論文リスト
- Unified Pretraining for Recommendation via Task Hypergraphs [55.98773629788986]
本稿では,タスクハイパーグラフによる推薦のための統一事前学習という,新しいマルチタスク事前学習フレームワークを提案する。
多様なプレテキストタスクの要求やニュアンスを処理するための統一学習パターンとして,プレテキストタスクをハイパーエッジ予測に一般化するタスクハイパーグラフを設計する。
各プレテキストタスクとレコメンデーションの関連性を識別的に学習するために、新しいトランジショナルアテンション層が考案される。
論文 参考訳(メタデータ) (2023-10-20T05:33:21Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Okapi: Generalising Better by Making Statistical Matches Match [7.392460712829188]
オカピは、オンライン統計マッチングに基づく頑健な半教師あり学習のためのシンプルで効率的で汎用的な方法である。
提案手法では, 最寄りのマッチング手法を用いて, 整合性損失に対するクロスドメインビューを生成する。
経験的リスクの最小化を改善するために、余分な遅延のないデータを活用することは実際に可能であることを示す。
論文 参考訳(メタデータ) (2022-11-07T12:41:17Z) - A Closer Look at Debiased Temporal Sentence Grounding in Videos:
Dataset, Metric, and Approach [53.727460222955266]
テンポラル・センテンス・グラウンディング・イン・ビデオ(TSGV)は、未編集のビデオに自然言語文を埋め込むことを目的としている。
最近の研究では、現在のベンチマークデータセットには明らかなモーメントアノテーションバイアスがあることが判明している。
偏りのあるデータセットによる膨らませ評価を緩和するため、基礎的リコールスコアを割引する新しい評価基準「dR@n,IoU@m」を導入する。
論文 参考訳(メタデータ) (2022-03-10T08:58:18Z) - NOTE: Solution for KDD-CUP 2021 WikiKG90M-LSC [3.0716126507403545]
最近の表現学習法はFB15k-237のような標準データセットで大きな成功を収めている。
我々は、OTE、QuatE、RotatE、TransEなど、さまざまなドメインで高度なアルゴリズムをトレーニングし、三つ子を学ぶ。
表現の他に,主実体,関係,尾実体の様々な統計的確率を最終予測に用いている。
論文 参考訳(メタデータ) (2021-07-05T09:30:24Z) - Out-of-Vocabulary Entities in Link Prediction [1.9036571490366496]
リンク予測はしばしば、埋め込みの品質を評価するプロキシとして使用される。
ベンチマークはアルゴリズムの公正な比較に欠かせないため、より良いソリューションを開発するための確固たる基盤を提供するため、その品質が確実に確保される。
我々は、そのようなエンティティの発見と削除のためのアプローチの実装を提供し、データセットWN18RR、FB15K-237、YAGO3-10の修正版を提供する。
論文 参考訳(メタデータ) (2021-05-26T12:58:18Z) - CoDEx: A Comprehensive Knowledge Graph Completion Benchmark [16.454849794911084]
CoDExはWikidataとWikipediaから抽出された知識グラフ補完データセットの集合である。
CoDExは、大きさと構造、実体と関係の多言語記述、数万の強負の三重項からなる。
論文 参考訳(メタデータ) (2020-09-16T17:08:23Z) - Evaluating Models' Local Decision Boundaries via Contrast Sets [119.38387782979474]
テストデータの体系的なギャップを埋めるのに役立つNLPのための新しいアノテーションパラダイムを提案する。
10種類のNLPデータセットに対してコントラストセットを作成することで,コントラストセットの有効性を示す。
我々のコントラストセットは明示的には逆ではないが、モデルの性能は元のテストセットよりも大幅に低い。
論文 参考訳(メタデータ) (2020-04-06T14:47:18Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。