論文の概要: Large Language Models and Knowledge Graphs: Opportunities and Challenges
- arxiv url: http://arxiv.org/abs/2308.06374v1
- Date: Fri, 11 Aug 2023 20:16:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 17:41:03.453377
- Title: Large Language Models and Knowledge Graphs: Opportunities and Challenges
- Title(参考訳): 大規模言語モデルと知識グラフ: 機会と課題
- Authors: Jeff Z. Pan, Simon Razniewski, Jan-Christoph Kalo, Sneha Singhania,
Jiaoyan Chen, Stefan Dietze, Hajira Jabeen, Janna Omeliyanenko, Wen Zhang,
Matteo Lissandrini, Russa Biswas, Gerard de Melo, Angela Bonifati, Edlira
Vakaj, Mauro Dragoni, Damien Graux
- Abstract要約: 大規模言語モデル(LLM)は知識表現(Knowledge Representation)と世界(the world)を嵐によって取り除きました。
この屈折点は、明示的な知識表現から、明示的な知識とパラメトリックな知識のハイブリッド表現への新たな焦点へのシフトを示す。
- 参考スコア(独自算出の注目度): 51.23244504291712
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have taken Knowledge Representation -- and the
world -- by storm. This inflection point marks a shift from explicit knowledge
representation to a renewed focus on the hybrid representation of both explicit
knowledge and parametric knowledge. In this position paper, we will discuss
some of the common debate points within the community on LLMs (parametric
knowledge) and Knowledge Graphs (explicit knowledge) and speculate on
opportunities and visions that the renewed focus brings, as well as related
research topics and challenges.
- Abstract(参考訳): 大規模言語モデル(llm)は、知識表現 -- と世界 -- を嵐にさらしている。
この屈折点は、明示的な知識表現から、明示的な知識とパラメトリックな知識のハイブリッド表現への新たな焦点へのシフトを示す。
本稿では,LLM(パラメトリック知識)と知識グラフ(専門知識)のコミュニティ内での共通する議論点について論じ,新たな焦点がもたらす機会やビジョン,関連する研究トピックや課題について考察する。
関連論文リスト
- Bring Your Own Knowledge: A Survey of Methods for LLM Knowledge Expansion [45.36686217199313]
大規模言語モデル(LLM)を新しい多様な知識に適応させることは、現実世界のアプリケーションにおける持続的な有効性に不可欠である。
本調査は, 事実情報, ドメイン知識, 言語習熟度, ユーザの嗜好など, さまざまな知識タイプを統合することに焦点を当てる。
論文 参考訳(メタデータ) (2025-02-18T07:15:28Z) - Synergizing Knowledge Graphs with Large Language Models: A Comprehensive Review and Future Prospects [5.851598378610756]
本稿では,知識グラフと大規模言語モデルの統合における最新の展開を包括的に分析する。
我々は,コグネート分野に携わる学者のさらなる探索を解明し,促進するために設計された統一的な枠組みを導入する。
論文 参考訳(メタデータ) (2024-07-26T02:39:30Z) - Knowledge Mechanisms in Large Language Models: A Survey and Perspective [88.51320482620679]
本稿では,知識利用と進化を含む新しい分類法から知識メカニズムの解析をレビューする。
LLMが学んだ知識、パラメトリック知識の脆弱性の理由、そして解決が難しい潜在的な暗黒知識(仮説)について論じる。
論文 参考訳(メタデータ) (2024-07-22T06:15:59Z) - Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - A Comprehensive Evaluation of GPT-4V on Knowledge-Intensive Visual Question Answering [53.70661720114377]
マルチモーダル・大型モデル(MLM)は視覚的理解の分野を著しく進歩させ、視覚的質問応答(VQA)の領域で顕著な能力を提供している
しかし、真の課題は知識集約型VQAタスクの領域にある。
1) モデルが視覚的手がかりを理解し、一般的な知識にどのように結びつくかを評価するコモンセンス知識、2) 画像から特定の知識を推論し、提示する際のモデルのスキルをテストする微粒な世界知識。
論文 参考訳(メタデータ) (2023-11-13T18:22:32Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - The Contribution of Knowledge in Visiolinguistic Learning: A Survey on
Tasks and Challenges [0.0]
視覚言語学(VL)事前学習に用いられる現在のデータセットは、限られた量の視覚的知識と言語的知識しか含まない。
知識グラフ(KG)やLarge Language Model(LLM)といった外部知識ソースは、そのような一般化ギャップをカバーすることができる。
論文 参考訳(メタデータ) (2023-03-04T13:12:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。