論文の概要: Construction and Applications of Billion-Scale Pre-Trained Multimodal
Business Knowledge Graph
- arxiv url: http://arxiv.org/abs/2209.15214v6
- Date: Sun, 19 Mar 2023 11:28:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 03:02:03.774868
- Title: Construction and Applications of Billion-Scale Pre-Trained Multimodal
Business Knowledge Graph
- Title(参考訳): 10億規模の事前学習したマルチモーダルビジネスナレッジグラフの構築と応用
- Authors: Shumin Deng, Chengming Wang, Zhoubo Li, Ningyu Zhang, Zelin Dai,
Hehong Chen, Feiyu Xiong, Ming Yan, Qiang Chen, Mosha Chen, Jiaoyan Chen,
Jeff Z. Pan, Bryan Hooi, Huajun Chen
- Abstract要約: 我々は、よく知られた企業であるAlibaba Groupから派生したオープンビジネス知識グラフ(OpenBG)を構築するプロセスを紹介する。
OpenBGは前例のない規模のオープンビジネスのKGで、260億の3倍体で、100万以上のコアクラス/コンセプトと2,681種類の関係をカバーしている。
- 参考スコア(独自算出の注目度): 64.42060648398743
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Business Knowledge Graphs (KGs) are important to many enterprises today,
providing factual knowledge and structured data that steer many products and
make them more intelligent. Despite their promising benefits, building business
KG necessitates solving prohibitive issues of deficient structure and multiple
modalities. In this paper, we advance the understanding of the practical
challenges related to building KG in non-trivial real-world systems. We
introduce the process of building an open business knowledge graph (OpenBG)
derived from a well-known enterprise, Alibaba Group. Specifically, we define a
core ontology to cover various abstract products and consumption demands, with
fine-grained taxonomy and multimodal facts in deployed applications. OpenBG is
an open business KG of unprecedented scale: 2.6 billion triples with more than
88 million entities covering over 1 million core classes/concepts and 2,681
types of relations. We release all the open resources (OpenBG benchmarks)
derived from it for the community and report experimental results of KG-centric
tasks. We also run up an online competition based on OpenBG benchmarks, and has
attracted thousands of teams. We further pre-train OpenBG and apply it to many
KG- enhanced downstream tasks in business scenarios, demonstrating the
effectiveness of billion-scale multimodal knowledge for e-commerce. All the
resources with codes have been released at
\url{https://github.com/OpenBGBenchmark/OpenBG}.
- Abstract(参考訳): ビジネスナレッジグラフ(kgs)は、現在多くの企業にとって重要であり、事実知識と構造化データを提供し、多くの製品を駆動し、よりインテリジェントにする。
有望な利益にもかかわらず、ビジネスKGを構築するには、欠陥のある構造と複数のモダリティの禁止的な問題を解決する必要がある。
本稿では,非自明な現実世界システムにおけるKG構築に関する実践的課題の理解を深める。
我々は、よく知られた企業であるAlibaba Groupから派生したオープンビジネス知識グラフ(OpenBG)を構築するプロセスを紹介する。
具体的には、デプロイされたアプリケーションにおける詳細な分類法とマルチモーダル事実を用いて、さまざまな抽象的製品と消費要求をカバーするコアオントロジーを定義する。
OpenBGは前例のない規模のオープンビジネスのKGで、260億の3倍体で、100万以上のコアクラス/コンセプトと2,681種類の関係をカバーしている。
コミュニティ向けのオープンリソース(OpenBGベンチマーク)をすべてリリースし、KG中心のタスクの実験結果を報告する。
また、OpenBGベンチマークに基づいたオンラインコンペも開催しており、何千ものチームを集めています。
我々はさらにOpenBGを事前訓練し、ビジネスシナリオにおける多くのKG強化下流タスクに適用し、eコマースにおける数十億ドル規模のマルチモーダル知識の有効性を実証する。
コードを持つすべてのリソースは \url{https://github.com/OpenBGBenchmark/OpenBG} でリリースされた。
関連論文リスト
- Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - A Prompt-Based Knowledge Graph Foundation Model for Universal In-Context Reasoning [17.676185326247946]
そこで本研究では,テキスト内学習,すなわちKG-ICLを介し,プロンプトに基づくKGファウンデーションモデルを提案する。
クエリにおけるエンティティや関係を発見できないような一般化機能を備えたプロンプトグラフを符号化するために,まず統一トークン化器を提案する。
そこで我々は,プロンプトエンコーディングとKG推論を行う2つのメッセージパッシングニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-16T06:47:18Z) - SAC-KG: Exploiting Large Language Models as Skilled Automatic Constructors for Domain Knowledge Graphs [32.93944146681218]
本稿では,大規模言語モデル(LLM)をドメイン知識グラフのためのスキル自動コンストラクタとして活用するための汎用的なKG構築フレームワークであるSAC-KGを提案する。
SAC-KGは、専門的で正確なマルチレベルKGを生成するために、LLMをドメインエキスパートとして効果的に扱う。
実験により、SAC-KGは100万以上のノードで自動的にドメインKGを構築し、89.32%の精度を達成することが示された。
論文 参考訳(メタデータ) (2024-09-22T13:55:23Z) - Multi-domain Knowledge Graph Collaborative Pre-training and Prompt Tuning for Diverse Downstream Tasks [48.102084345907095]
知識グラフ事前学習(KGP)は、大規模知識グラフ(KG)上でニューラルネットワークを事前訓練することを目的としている
MuDoKは、異なる下流タスクバックボーンに適応可能な、プラグインとプレイのプロンプト学習アプローチである。
私たちのフレームワークは、その汎用性、効率性、転送可能性とともに、大幅なパフォーマンス向上をもたらします。
論文 参考訳(メタデータ) (2024-05-21T08:22:14Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - MyGO: Discrete Modality Information as Fine-Grained Tokens for Multi-modal Knowledge Graph Completion [51.80447197290866]
MMKGの微細なモダリティ情報を処理・融合・拡張するためにMyGOを導入する。
MyGOは、マルチモーダルな生データをきめ細かい離散トークンとしてトークン化し、クロスモーダルなエンティティエンコーダでエンティティ表現を学習する。
標準MMKGCベンチマーク実験により,本手法が最新の20モデルを上回ることがわかった。
論文 参考訳(メタデータ) (2024-04-15T05:40:41Z) - Knowledge Graphs Meet Multi-Modal Learning: A Comprehensive Survey [61.8716670402084]
本調査は,KG-driven Multi-Modal Learning(KG4MM)とMulti-Modal Knowledge Graph(MM4KG)の2つの主要な側面におけるKG認識研究に焦点を当てる。
KG対応マルチモーダル学習タスクと本質的MMKGタスクの2つの主要なタスクカテゴリについて検討した。
これらのタスクの多くに対して、定義、評価ベンチマークを提供し、関連する研究を行うための重要な洞察を概説する。
論文 参考訳(メタデータ) (2024-02-08T04:04:36Z) - Generations of Knowledge Graphs: The Crazy Ideas and the Business Impact [19.774378927811725]
本稿では、エンティティベースのKG、テキストリッチなKG、デュアルニューラルなKGの3世代にわたる知識グラフについて述べる。
私たちはKGを例として、イノベーションからプロダクションプラクティスへ、そして次のレベルのイノベーションへと研究のアイデアを進化させるレシピを実証しています。
論文 参考訳(メタデータ) (2023-08-27T22:35:27Z) - KGTK: A Toolkit for Large Knowledge Graph Manipulation and Analysis [9.141014703209494]
KGTKは、KGを表現、生成、変換、拡張、分析するために設計されたデータサイエンス中心のツールキットである。
我々はKGTKを使ってWikidataやDBpedia、ConceptNetといった大規模なKGを統合・操作する現実世界のシナリオでこのフレームワークを説明します。
論文 参考訳(メタデータ) (2020-05-29T21:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。