論文の概要: NOTE: Solution for KDD-CUP 2021 WikiKG90M-LSC
- arxiv url: http://arxiv.org/abs/2107.01892v1
- Date: Mon, 5 Jul 2021 09:30:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 14:43:42.383293
- Title: NOTE: Solution for KDD-CUP 2021 WikiKG90M-LSC
- Title(参考訳): NOTE: KDD-CUP 2021 WikiKG90M-LSCのソリューション
- Authors: Weiyue Su, Zeyang Fang, Hui Zhong, Huijuan Wang, Siming Dai, Zhengjie
Huang, Yunsheng Shi, Shikun Feng, Zeyu Chen
- Abstract要約: 最近の表現学習法はFB15k-237のような標準データセットで大きな成功を収めている。
我々は、OTE、QuatE、RotatE、TransEなど、さまざまなドメインで高度なアルゴリズムをトレーニングし、三つ子を学ぶ。
表現の他に,主実体,関係,尾実体の様々な統計的確率を最終予測に用いている。
- 参考スコア(独自算出の注目度): 3.0716126507403545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: WikiKG90M in KDD Cup 2021 is a large encyclopedic knowledge graph, which
could benefit various downstream applications such as question answering and
recommender systems. Participants are invited to complete the knowledge graph
by predicting missing triplets. Recent representation learning methods have
achieved great success on standard datasets like FB15k-237. Thus, we train the
advanced algorithms in different domains to learn the triplets, including OTE,
QuatE, RotatE and TransE. Significantly, we modified OTE into NOTE (short for
Norm-OTE) for better performance. Besides, we use both the DeepWalk and the
post-smoothing technique to capture the graph structure for supplementation. In
addition to the representations, we also use various statistical probabilities
among the head entities, the relations and the tail entities for the final
prediction. Experimental results show that the ensemble of state-of-the-art
representation learning methods could draw on each others strengths. And we
develop feature engineering from validation candidates for further
improvements. Please note that we apply the same strategy on the test set for
final inference. And these features may not be practical in the real world when
considering ranking against all the entities.
- Abstract(参考訳): KDDカップ2021のWikiKG90Mは大規模な百科事典知識グラフであり、質問応答やレコメンデーターシステムなど、さまざまなダウンストリームアプリケーションに役立つ。
参加者は行方不明のトリプレットを予測してナレッジグラフを完成させるように招待される。
最近の表現学習法はFB15k-237のような標準データセットで大きな成功を収めている。
そこで我々は,様々な領域の高度なアルゴリズムを訓練し,ote,quate,rotrot,transeなどの三重項を学習する。
重要なことに、私たちはOTEをNOTE(Norm-OTEのショート)に修正し、パフォーマンスを改善しました。
さらに,deepwalk と post-smoothing technique の両方を用いて,補足のためのグラフ構造をキャプチャする。
表象に加えて,主エンティティ,関係,末尾エンティティ間の様々な統計確率を用いて最終予測を行う。
実験の結果,最先端表現学習手法が相互に強みを与えうることがわかった。
そして、さらなる改善のためのバリデーション候補から機能エンジニアリングを開発します。
最終推論のためにテストセットに同じ戦略を適用することに注意してください。
そして、これらの機能は、すべてのエンティティに対するランキングを考えるとき、現実世界では実用的ではないかもしれない。
関連論文リスト
- SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - A Simple and Scalable Graph Neural Network for Large Directed Graphs [11.792826520370774]
入力グラフ内のノード表現とエッジ方向認識の様々な組み合わせについて検討する。
そこで本研究では,A2DUGを簡易かつ包括的に分類する手法を提案する。
我々は、A2DUGが様々なデータセットで安定して動作し、最先端の手法と比較して11.29まで精度が向上することを示した。
論文 参考訳(メタデータ) (2023-06-14T06:24:58Z) - Improving Few-Shot Generalization by Exploring and Exploiting Auxiliary
Data [100.33096338195723]
補助データを用いたFew-shot Learning(FLAD)に焦点を当てる。
FLADは、一般化を改善するために、数ショットの学習中に補助データへのアクセスを前提としている。
提案するアルゴリズムは EXP3-FLAD と UCB1-FLAD の2つである。
論文 参考訳(メタデータ) (2023-02-01T18:59:36Z) - Using Graph Algorithms to Pretrain Graph Completion Transformers [8.327657957422833]
自己教師付き事前トレーニングは、下流グラフ、リンク、ノード分類タスクのパフォーマンスを向上させることができる。
複数のグラフアルゴリズムを用いて構築し,外部データと組み合わせない5種類の事前学習信号について検討する。
本稿では,情報ゲインによって誘導される経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-14T01:41:10Z) - Are Missing Links Predictable? An Inferential Benchmark for Knowledge
Graph Completion [79.07695173192472]
InferWikiは推論能力、仮定、パターンの既存のベンチマークを改善している。
各テストサンプルは、トレーニングセットの支持データで予測可能である。
実験では,大きさや構造が異なるInferWikiの2つの設定をキュレートし,比較データセットとしてCoDExに構築プロセスを適用する。
論文 参考訳(メタデータ) (2021-08-03T09:51:15Z) - Graph Convolution for Re-ranking in Person Re-identification [40.9727538382413]
類似度指標としてユークリッド距離を保ちながら,学習特徴を改善するグラフベースの再ランク付け手法を提案する。
ビデオ中の各トラックレットのプロファイルベクトルを生成するための簡易で効果的な手法が提案されている。
論文 参考訳(メタデータ) (2021-07-05T18:40:43Z) - GRAD-MATCH: A Gradient Matching Based Data Subset Selection for
Efficient Learning [23.75284126177203]
我々は、トレーニングや検証セットの勾配と密接に一致する部分集合を見つける汎用フレームワークgrad-matchを提案する。
GRAD-MATCHは、最近のデータ選択アルゴリズムよりも大きく、一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-02-27T04:09:32Z) - Learning Reasoning Strategies in End-to-End Differentiable Proving [50.9791149533921]
条件付き定理プローバーは勾配に基づく最適化により最適規則選択戦略を学習する。
条件付き定理プローサは拡張性があり、CLUTRRデータセット上で最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-13T16:22:14Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。