論文の概要: Enterprise Use Cases Combining Knowledge Graphs and Natural Language Processing
- arxiv url: http://arxiv.org/abs/2404.01443v1
- Date: Mon, 1 Apr 2024 19:28:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 20:37:09.860038
- Title: Enterprise Use Cases Combining Knowledge Graphs and Natural Language Processing
- Title(参考訳): 知識グラフと自然言語処理を組み合わせたエンタープライズユースケース
- Authors: Phillip Schneider, Tim Schopf, Juraj Vladika, Florian Matthes,
- Abstract要約: 知識グラフ(KG)は、データを整理し、意味を成すための柔軟でスケーラブルでセマンティックにリッチな方法を提供する。
本稿は,KGと自然言語処理(NLP)の併用に関する最近の研究成果に基づくものである。
我々は,KG に基づく NLP タスクだけでなく,KG 構築の3つの中核領域からの様々なアプローチについて論じる。
- 参考スコア(独自算出の注目度): 4.637328271312331
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge management is a critical challenge for enterprises in today's digital world, as the volume and complexity of data being generated and collected continue to grow incessantly. Knowledge graphs (KG) emerged as a promising solution to this problem by providing a flexible, scalable, and semantically rich way to organize and make sense of data. This paper builds upon a recent survey of the research literature on combining KGs and Natural Language Processing (NLP). Based on selected application scenarios from enterprise context, we discuss synergies that result from such a combination. We cover various approaches from the three core areas of KG construction, reasoning as well as KG-based NLP tasks. In addition to explaining innovative enterprise use cases, we assess their maturity in terms of practical applicability and conclude with an outlook on emergent application areas for the future.
- Abstract(参考訳): 知識管理は、データの生成と収集の量と複雑さが絶え間なく増大し続けており、今日のデジタル世界では、企業にとって重要な課題である。
知識グラフ(KG)は、柔軟でスケーラブルでセマンティックにリッチな方法でデータの整理と理解を提供することによって、この問題に対する有望な解決策として登場した。
本稿は,KGsと自然言語処理(NLP)を組み合わせた最近の研究成果に基づいている。
企業コンテキストから選択したアプリケーションシナリオに基づいて、このような組み合わせによる相乗効果について議論する。
我々は,KG に基づく NLP タスクだけでなく,KG 構築の3つの中核領域からの様々なアプローチについて論じる。
革新的な企業利用事例を説明することに加えて、実用性の観点からそれらの成熟度を評価し、今後の創発的アプリケーション分野の展望をまとめる。
関連論文リスト
- Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Distill-SynthKG: Distilling Knowledge Graph Synthesis Workflow for Improved Coverage and Efficiency [59.6772484292295]
大規模言語モデル(LLM)によって生成される知識グラフ(KG)は、検索・拡張生成(RAG)アプリケーションにとってますます価値が増している。
既存のKG抽出法は、大規模コーパスの処理に非効率なプロンプトベースのアプローチに依存している。
LLMに基づく多段階文書レベルのKGワークフローであるSynthKGを提案する。
我々はまた、RAGのための新しいグラフベースの検索フレームワークを設計する。
論文 参考訳(メタデータ) (2024-10-22T00:47:54Z) - Combining Knowledge Graphs and Large Language Models [4.991122366385628]
大規模言語モデル(LLM)は、言語理解と生成において驚くべき結果を示す。
幻覚やドメイン固有の知識の欠如など、いくつかの欠点がある。
これらの問題は知識グラフ(KG)を組み込むことで効果的に緩和することができる。
本研究は、KGを用いたLLM、LLMベースのKG、LLM-KGハイブリッドアプローチに関する28の論文の概要をまとめた。
論文 参考訳(メタデータ) (2024-07-09T05:42:53Z) - Context Graph [8.02985792541121]
本稿では,大規模言語モデル(LLM)を活用して候補エンティティや関連するコンテキストを検索する,コンテキストグラフ推論のtextbfCGR$3$パラダイムを提案する。
実験の結果、CGR$3$はKG完了(KGC)およびKG質問応答(KGQA)タスクの性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-06-17T02:59:19Z) - KG-RAG: Bridging the Gap Between Knowledge and Creativity [0.0]
大規模言語モデルエージェント(LMA)は、情報幻覚、破滅的な忘れ込み、長いコンテキストの処理における制限といった問題に直面している。
本稿では,LMAの知識能力を高めるため,KG-RAG (Knowledge Graph-Retrieval Augmented Generation)パイプラインを提案する。
ComplexWebQuestionsデータセットに関する予備実験では、幻覚的コンテンツの削減において顕著な改善が示されている。
論文 参考訳(メタデータ) (2024-05-20T14:03:05Z) - Knowledge Graph Completion using Structural and Textual Embeddings [0.0]
本稿では,知識グラフ内のテキスト情報と構造情報の両方を利用する関係予測モデルを提案する。
本手法では,歩行に基づく埋め込みと言語モデル埋め込みを統合し,ノードを効果的に表現する。
本研究では,広く利用されているデータセットで評価した場合,関係予測タスクにおける競合結果が得られたことを実証する。
論文 参考訳(メタデータ) (2024-04-24T21:04:14Z) - Large Language Models for Next Point-of-Interest Recommendation [53.93503291553005]
位置情報ベースのソーシャルネットワーク(LBSN)データは、しばしば次のPoint of Interest(POI)レコメンデーションタスクに使用される。
しばしば無視される課題の1つは、LBSNデータに存在する豊富なコンテキスト情報を効果的に利用する方法である。
本稿では,この課題に対処するために,LLM(Large Language Models)を用いたフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-19T13:28:36Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Iterative Zero-Shot LLM Prompting for Knowledge Graph Construction [104.29108668347727]
本稿では,最新の生成型大規模言語モデルの可能性を活用する,革新的な知識グラフ生成手法を提案する。
このアプローチは、新しい反復的なゼロショットと外部知識に依存しない戦略を含むパイプラインで伝達される。
我々は、我々の提案がスケーラブルで多目的な知識グラフ構築に適したソリューションであり、異なる新しい文脈に適用できると主張している。
論文 参考訳(メタデータ) (2023-07-03T16:01:45Z) - CoSe-Co: Text Conditioned Generative CommonSense Contextualizer [13.451001884972033]
事前訓練された言語モデル(PTLM)は、自然言語のタスクでうまく機能することが示されている。
文に条件付きCommonSense Contextualizer(CoSe-Co)を提案する。
論文 参考訳(メタデータ) (2022-06-12T09:57:32Z) - CokeBERT: Contextual Knowledge Selection and Embedding towards Enhanced
Pre-Trained Language Models [103.18329049830152]
我々は,コンテキスト知識を動的に選択し,テキストコンテキストに応じて知識コンテキストを埋め込む,Cokeという新しいフレームワークを提案する。
実験の結果、コークは知識駆動型NLPタスクにおいて、様々なベースラインを上回ります。
コークは、テキスト関連の知識のセマンティクスを従来のPLMよりも解釈可能な形で記述することができる。
論文 参考訳(メタデータ) (2020-09-29T12:29:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。