論文の概要: BESS: Balanced Entity Sampling and Sharing for Large-Scale Knowledge
Graph Completion
- arxiv url: http://arxiv.org/abs/2211.12281v1
- Date: Tue, 22 Nov 2022 13:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 17:00:33.752589
- Title: BESS: Balanced Entity Sampling and Sharing for Large-Scale Knowledge
Graph Completion
- Title(参考訳): BESS: 大規模知識グラフ補完のためのバランスのとれたエンティティサンプリングと共有
- Authors: Alberto Cattaneo, Daniel Justus, Harry Mellor, Douglas Orr, Jerome
Maloberti, Zhenying Liu, Thorin Farnsworth, Andrew Fitzgibbon, Blazej
Banaszewski, Carlo Luschi
- Abstract要約: 我々は、OGB-LSC@NeurIPS 2022のWikiKG90Mv2トラックに受賞申請を提示する。
このタスクは、90M+ノードと600M+エッジからなる大規模知識グラフWikiKG90Mv2上のリンク予測である。
- 参考スコア(独自算出の注目度): 1.083504248254529
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present the award-winning submission to the WikiKG90Mv2 track of
OGB-LSC@NeurIPS 2022. The task is link-prediction on the large-scale knowledge
graph WikiKG90Mv2, consisting of 90M+ nodes and 600M+ edges. Our solution uses
a diverse ensemble of $85$ Knowledge Graph Embedding models combining five
different scoring functions (TransE, TransH, RotatE, DistMult, ComplEx) and two
different loss functions (log-sigmoid, sampled softmax cross-entropy). Each
individual model is trained in parallel on a Graphcore Bow Pod$_{16}$ using
BESS (Balanced Entity Sampling and Sharing), a new distribution framework for
KGE training and inference based on balanced collective communications between
workers. Our final model achieves a validation MRR of 0.2922 and a
test-challenge MRR of 0.2562, winning the first place in the competition. The
code is publicly available at:
https://github.com/graphcore/distributed-kge-poplar/tree/2022-ogb-submission.
- Abstract(参考訳): 我々は、OGB-LSC@NeurIPS 2022のWikiKG90Mv2トラックに受賞申請を提示する。
このタスクは、90M+ノードと600M+エッジからなる大規模知識グラフWikiKG90Mv2上のリンク予測である。
我々のソリューションは、TransE, TransH, RotatE, DistMult, ComplEx)と2つの異なる損失関数(log-sigmoid, sampled softmax cross-entropy)を組み合わせた85ドルの知識グラフ埋め込みモデルを用いている。
それぞれのモデルは、kgeトレーニングのための新しい分散フレームワークであるbes(balanced entity sampling and sharing)を使用して、graphcore bow pod$_{16}$で並列にトレーニングされる。
最終モデルは,0.2922の検証MRRと0.2562のテストチェレンジMRRを達成し,第1位を獲得した。
コードは、https://github.com/graphcore/distributed-kge-poplar/tree/2022-ogb-submissionで公開されている。
関連論文リスト
- Graph Sparsification via Mixture of Graphs [67.40204130771967]
そこで我々はMixture-of-Graphs (MoG)を導入し、各ノードに対して動的に調整されたプルーニングソリューションを選択する。
MoGには複数のスパシファイアの専門家が組み込まれており、それぞれが独自のスパーシリティレベルとプルーニング基準によって特徴付けられ、各ノードに対して適切な専門家を選択する。
5つのGNNを備えた4つの大規模OGBデータセットと2つのスーパーピクセルデータセットの実験により、MoGはより高い空間レベルのサブグラフを識別することを示した。
論文 参考訳(メタデータ) (2024-05-23T07:40:21Z) - Cooperative Multi-Agent Graph Bandits: UCB Algorithm and Regret Analysis [5.02063914741425]
Zhang, Johansson, Li が導入したグラフバンディット問題のマルチエージェント拡張として,マルチエージェントグラフバンディット問題を定式化する。
上信頼境界(UCB)に基づく学習アルゴリズムであるMulti-G-UCBを提案し、T$のステップに対する期待された後悔が$O(gamma Nlog(T)[sqrtKT + DK])$で束縛されていることを証明した。
論文 参考訳(メタデータ) (2024-01-18T21:36:17Z) - Inferences on Mixing Probabilities and Ranking in Mixed-Membership
Models [5.992878098797828]
ネットワークデータは、経済や健康ネットワークを含む多くのビッグデータアプリケーションで広く利用されている。
本稿では,Degree-Corrected Mixed Membership (DCMM)モデルを用いてネットワークをモデル化する。
我々は、$boldsymbolpi_i(k)$sに対して、メンバシップ混合確率と他の関連する集団量の分布と信頼区間を得られるような、新しい有限サンプル展開を導出する。
論文 参考訳(メタデータ) (2023-08-29T02:35:45Z) - Distributionally Robust Classification on a Data Budget [26.69877485937123]
2.4万の画像サンプル上でのクロスエントロピー損失でトレーニングされた標準ResNet-50は、4億の画像サンプルでトレーニングされたCLIP ResNet-50と同等の堅牢性を達成できることを示す。
これは、限られたデータ予算に対して(ほぼ)最先端の分散ロバスト性を示す最初の結果である。
論文 参考訳(メタデータ) (2023-08-07T15:30:02Z) - I$^2$SB: Image-to-Image Schr\"odinger Bridge [87.43524087956457]
Image-to-Image Schr"odinger Bridge (I$2$SB) は条件拡散モデルの新しいクラスである。
I$2$SB は、2つの与えられた分布間の非線形拡散過程を直接学習する。
I$2$SBは、より解釈可能な生成過程を持つ標準条件拡散モデルを超えることを示す。
論文 参考訳(メタデータ) (2023-02-12T08:35:39Z) - Hierarchical Inference of the Lensing Convergence from Photometric
Catalogs with Bayesian Graph Neural Networks [0.0]
我々は銀河ギャラクシーレンズのスケールを$sim$1$''で変動させ、BGNNを訓練するためにランダムな視線を抽出する。
BGNNは、1000の視線からなる各テストセットに対して、個々の$kappa$aftersを推論し、階層的ベイズモデルで組み合わせる。
トレーニングセットでよくサンプリングされたテストフィールドに対して、BGNNは、正確にはバイアスなく、人口平均の$kappa$を回収する。
論文 参考訳(メタデータ) (2022-11-15T00:29:20Z) - Modality-Aware Triplet Hard Mining for Zero-shot Sketch-Based Image
Retrieval [51.42470171051007]
本稿では,ZES-SBIR(Zero-Shot Sketch-Based Image Retrieval)問題に,クロスモダリティメトリック学習の観点から取り組む。
DMLにおける2つの基本的な学習手法、例えば分類訓練とペアトレーニングを組み合わせることで、ZS-SBIRの強力なベースラインを構築した。
モータリティ・アウェア・トリプルト・ハード・マイニング(MATHM)は3種類のペア・ラーニングによってベースラインを向上することを示す。
論文 参考訳(メタデータ) (2021-12-15T08:36:44Z) - Cold Brew: Distilling Graph Node Representations with Incomplete or
Missing Neighborhoods [69.13371028670153]
本稿では,SCS(Strict Cold Start)問題に対する誘導型GNNの有効性を検討するために,FCR(Feature-Contribution ratio)を導入する。
実験により,FCRはグラフデータセットの様々な成分の寄与を阻害し,コールドブリューの優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-08T21:29:25Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - GraphMixup: Improving Class-Imbalanced Node Classification on Graphs by
Self-supervised Context Prediction [25.679620842010422]
本稿では,グラフ上のクラス不均衡ノード分類を改善するための新しい混合フレームワークであるGraphMixupを提案する。
我々は,これらのマイノリティクラスに対する混合によって生成されるサンプル数を適応的に決定するEmphReinforcement Mixupメカニズムを開発した。
3つの実世界のデータセットの実験により、GraphMixupはクラス不均衡なノード分類タスクに対して真に励まされる結果が得られることが示された。
論文 参考訳(メタデータ) (2021-06-21T14:12:16Z) - Sequential Graph Convolutional Network for Active Learning [53.99104862192055]
逐次グラフ畳み込みネットワーク(GCN)を用いた新しいプールベースアクティブラーニングフレームワークを提案する。
少数のランダムなサンプル画像がシードラベル付き例であるので、グラフのパラメータを学習してラベル付きノードと非ラベル付きノードを区別する。
我々はGCNの特性を利用してラベル付けされたものと十分に異なる未ラベルの例を選択する。
論文 参考訳(メタデータ) (2020-06-18T00:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。