論文の概要: Knowledge Base Completion: Baseline strikes back (Again)
- arxiv url: http://arxiv.org/abs/2005.00804v3
- Date: Mon, 25 Jul 2022 13:41:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 11:58:07.726464
- Title: Knowledge Base Completion: Baseline strikes back (Again)
- Title(参考訳): 知識ベースコンプリート:ベースラインストライクバック(再び)
- Authors: Prachi Jain, Sushant Rathi, Mausam, Soumen Chakrabarti
- Abstract要約: 知識ベースコンプリート(KBC)は近年,非常に活発な分野である。
最近の進歩により、トレーニングに利用可能なすべての負のサンプルを使用できるようになりました。
利用可能なすべての負のサンプルを使用してトレーニングされた場合、Complexは、すべてのデータセットに対してほぼ最先端のパフォーマンスを提供する。
- 参考スコア(独自算出の注目度): 36.52445566431404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Base Completion (KBC) has been a very active area lately. Several
recent KBCpapers propose architectural changes, new training methods, or even
new formulations. KBC systems are usually evaluated on standard benchmark
datasets: FB15k, FB15k-237, WN18, WN18RR, and Yago3-10. Most existing methods
train with a small number of negative samples for each positive instance in
these datasets to save computational costs. This paper discusses how recent
developments allow us to use all available negative samples for training. We
show that Complex, when trained using all available negative samples, gives
near state-of-the-art performance on all the datasets. We call this approach
COMPLEX-V2. We also highlight how various multiplicative KBC methods, recently
proposed in the literature, benefit from this train-ing regime and become
indistinguishable in terms of performance on most datasets. Our work calls for
a reassessment of their individual value, in light of these findings.
- Abstract(参考訳): 知識ベースコンプリート(KBC)は近年,非常に活発な分野である。
最近のKBCペーパーでは、アーキテクチャの変更、新しいトレーニング方法、あるいは新しい定式化が提案されている。
KBCシステムは通常、FB15k、FB15k-237、WN18、WN18RR、Yago3-10という標準ベンチマークデータセットで評価される。
既存のほとんどのメソッドは、計算コストを削減するために、これらのデータセットの各正のインスタンスに対して、少数の負のサンプルでトレーニングする。
本稿では,最近の開発で利用可能なすべての負のサンプルをトレーニングに活用できる方法について述べる。
利用可能なすべての負のサンプルを使ってトレーニングすると、すべてのデータセットで最先端のパフォーマンスが得られます。
このアプローチをCompleX-V2と呼ぶ。
また、最近論文で提案された多元的KBC手法が、この列車運行体制の恩恵を受け、ほとんどのデータセットのパフォーマンスにおいて区別できないものになっている点を強調した。
我々の研究は、これらの発見を踏まえて、それぞれの価値を再評価することを求めている。
関連論文リスト
- TabReD: Analyzing Pitfalls and Filling the Gaps in Tabular Deep Learning Benchmarks [30.922069185335246]
典型的産業応用における表型データの2つの共通特性は、通常文献で評価に使用されるデータセットに不足している。
運用環境におけるデータセットのかなりの部分は、広範なデータ取得と機能エンジニアリングパイプラインに由来する。
これは、学術的なデータセットと比較して、予測的、非形式的、相関的な特徴の絶対的および相対的な数に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-06-27T17:55:31Z) - Benchmarking Classical and Learning-Based Multibeam Point Cloud Registration [4.919017078893727]
水中領域では、マルチビームエコーソーダ(MBES)ポイントクラウドデータのほとんどの登録は古典的手法で行われている。
本研究では,2つの古典的手法と4つの学習的手法のパフォーマンスをベンチマークする。
我々の知る限りでは、AUVベースのMBESデータセット上で学習ベースと古典的登録方法の両方をベンチマークする最初の試みである。
論文 参考訳(メタデータ) (2024-05-10T07:23:33Z) - Evaluating Graph Neural Networks for Link Prediction: Current Pitfalls
and New Benchmarking [66.83273589348758]
リンク予測は、グラフのエッジの一部のみに基づいて、目に見えないエッジが存在するかどうかを予測しようとする。
近年,この課題にグラフニューラルネットワーク(GNN)を活用すべく,一連の手法が導入されている。
これらの新しいモデルの有効性をよりよく評価するために、新しい多様なデータセットも作成されている。
論文 参考訳(メタデータ) (2023-06-18T01:58:59Z) - DataComp: In search of the next generation of multimodal datasets [179.79323076587255]
DataCompは、Common Crawlの128億の画像テキストペアの候補プールを中心にしたデータセット実験用のテストベッドである。
我々のベンチマークは、複数の計算スケールから成っている。
特に、最良のベースラインであるDataComp-1Bは、ImageNetでCLIP ViT-L/14をスクラッチから79.2%のゼロショット精度でトレーニングすることが可能です。
論文 参考訳(メタデータ) (2023-04-27T11:37:18Z) - Real-Time Evaluation in Online Continual Learning: A New Hope [104.53052316526546]
計算コストに関して,現在の継続学習(CL)手法を評価した。
簡単なベースラインは、この評価の下で最先端のCL法より優れている。
これは、既存のCL文献の大部分は、実用的でない特定の種類のストリームに適合していることを驚くほど示唆している。
論文 参考訳(メタデータ) (2023-02-02T12:21:10Z) - A Novel Dataset for Evaluating and Alleviating Domain Shift for Human
Detection in Agricultural Fields [59.035813796601055]
トレーニングセットの分布外のデータに展開した場合、ドメインシフトが、よく知られたオブジェクト検出データセット上で訓練された人間の検出モデルに与える影響を評価する。
我々は、ロボットティプラットフォームを用いて、農業ロボット応用の文脈で収集されたOpenDR Humans in Fieldデータセットを紹介した。
論文 参考訳(メタデータ) (2022-09-27T07:04:28Z) - SimKGC: Simple Contrastive Knowledge Graph Completion with Pre-trained
Language Models [9.063614185765855]
本稿では, 単純負の形式として機能する, バッチ内負, バッチ前負, 自己負の3種類の負を導入する。
提案モデルであるSimKGCは,いくつかのベンチマークデータセットにおいて,埋め込みに基づく手法を大幅に上回ることができる。
平均相互ランク(MRR)に関しては、WN18RRでは+19%、Wikidata5Mでは+6.8%、Wikidata5Mでは+22%である。
論文 参考訳(メタデータ) (2022-03-04T07:36:30Z) - Exemplar-free Online Continual Learning [7.800379384628357]
連続学習の目的は、各データが学習者によって一度だけ観察されるという条件の下で、逐次利用可能なデータから新しいタスクを学習することである。
近年の成果は、学習したタスクデータの一部を知識再生の例証として保存することで、目覚ましい成果を上げている。
そこで本研究では,NCM(Nest-class-mean-class-mean)分類器を応用した,新しい例のない手法を提案する。
論文 参考訳(メタデータ) (2022-02-11T08:03:22Z) - A Closer Look at Temporal Sentence Grounding in Videos: Datasets and
Metrics [70.45937234489044]
2つの広く使用されているTSGVデータセット(Charades-STAとActivityNet Captions)を再編成し、トレーニング分割と異なるものにします。
基本的なIoUスコアを校正するために、新しい評価基準「dR@$n$,IoU@$m$」を導入する。
すべての結果は、再編成されたデータセットと新しいメトリクスがTSGVの進捗をよりよく監視できることを示している。
論文 参考訳(メタデータ) (2021-01-22T09:59:30Z) - BLEURT: Learning Robust Metrics for Text Generation [17.40369189981227]
BERTに基づく学習評価指標BLEURTを提案する。
このアプローチの重要な側面は、モデルを一般化するのに役立つ数百万の合成例を使用する、新しい事前学習方式である。
BLEURTは、WMT Metrics共有タスクとWebNLGコンペティションデータセットの最後の3年間について、最先端の結果を提供する。
論文 参考訳(メタデータ) (2020-04-09T17:26:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。