論文の概要: A Comprehensive Survey on Integrating Large Language Models with Knowledge-Based Methods
- arxiv url: http://arxiv.org/abs/2501.13947v1
- Date: Sun, 19 Jan 2025 23:25:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-02 08:21:51.518363
- Title: A Comprehensive Survey on Integrating Large Language Models with Knowledge-Based Methods
- Title(参考訳): 知識に基づく大規模言語モデルの統合に関する総合的研究
- Authors: Lilian Some, Wenli Yang, Michael Bain, Byeong Kang,
- Abstract要約: 本稿では、データコンテキスト化の改善、モデルの精度の向上、知識リソースの利用改善など、生成AIを知識ベースに統合するメリットを強調した。
この調査結果は、現在の研究状況の詳細な概要を提供し、重要なギャップを特定し、実行可能なレコメンデーションを提供する。
- 参考スコア(独自算出の注目度): 4.686190098233778
- License:
- Abstract: The rapid development of artificial intelligence has brought about substantial advancements in the field. One promising direction is the integration of Large Language Models (LLMs) with structured knowledge-based systems. This approach aims to enhance AI capabilities by combining the generative language understanding of LLMs with the precise knowledge representation of structured systems. This survey explores the synergy between LLMs and knowledge bases, focusing on real-world applications and addressing associated technical, operational, and ethical challenges. Through a comprehensive literature review, the study identifies critical issues and evaluates existing solutions. The paper highlights the benefits of integrating generative AI with knowledge bases, including improved data contextualization, enhanced model accuracy, and better utilization of knowledge resources. The findings provide a detailed overview of the current state of research, identify key gaps, and offer actionable recommendations. These insights contribute to advancing AI technologies and support their practical deployment across various sectors.
- Abstract(参考訳): 人工知能の急速な発展は、この分野に大きな進歩をもたらした。
有望な方向性の1つは、構造化知識ベースのシステムとLLM(Large Language Models)の統合である。
本手法は,LLMの生成言語理解と構造化システムの正確な知識表現を組み合わせることで,AI能力の向上を目的とする。
本調査では,LLMと知識基盤の相乗効果,実世界の応用,関連する技術的,運用的,倫理的課題への対処について検討する。
総合的な文献レビューを通じて、本研究は重要な問題を特定し、既存の解決策を評価する。
本稿では、データコンテキスト化の改善、モデルの精度の向上、知識リソースの利用改善など、生成AIを知識ベースに統合するメリットを強調した。
この調査結果は、現在の研究状況の詳細な概要を提供し、重要なギャップを特定し、実行可能なレコメンデーションを提供する。
これらの洞察は、AI技術の進歩に寄与し、さまざまな分野における実践的な展開をサポートする。
関連論文リスト
- IntelliChain: An Integrated Framework for Enhanced Socratic Method Dialogue with LLMs and Knowledge Graphs [1.810537720642316]
本研究では,ソクラテス教育に適したマルチエージェントシステムの設計とコラボレーションの最適化方法について検討する。
この研究は知識グラフを組み込むことによって、特定の教育内容を扱うLLMの能力を高めた。
論文 参考訳(メタデータ) (2025-01-07T03:32:29Z) - Deploying Large Language Models With Retrieval Augmented Generation [0.21485350418225244]
Retrieval Augmented Generationは、大規模言語モデルのトレーニングセット外のデータソースからの知識を統合するための重要なアプローチとして登場した。
本稿では,LLMとRAGを統合して情報検索を行うパイロットプロジェクトの開発とフィールドテストから得られた知見について述べる。
論文 参考訳(メタデータ) (2024-11-07T22:11:51Z) - Knowledge Tagging System on Math Questions via LLMs with Flexible Demonstration Retriever [48.5585921817745]
大きな言語モデル(LLM)は知識タグ付けタスクを自動化するために使われる。
算数問題における知識タグ付けタスクに対するゼロショットと少数ショットの結果の強い性能を示す。
強化学習に基づくデモレトリバーの提案により,異なるサイズのLLMの潜在能力を活用できた。
論文 参考訳(メタデータ) (2024-06-19T23:30:01Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - Large Language Models for Generative Information Extraction: A Survey [89.71273968283616]
大規模言語モデル(LLM)は、テキスト理解と生成において顕著な能力を示した。
各種IEサブタスクと技術の観点から,これらの作品を分類して概観する。
我々は,最も先進的な手法を実証的に分析し,LLMによるIEタスクの出現傾向を明らかにする。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - Multimodality of AI for Education: Towards Artificial General
Intelligence [14.121655991753483]
マルチモーダル人工知能(AI)アプローチは、教育的文脈における人工知能(AGI)の実現に向けた道を歩んでいる。
この研究は、認知フレームワーク、高度な知識表現、適応学習機構、多様なマルチモーダルデータソースの統合など、AGIの重要な側面を深く掘り下げている。
本稿は、AGI開発における今後の方向性と課題に関する洞察を提供する、教育におけるマルチモーダルAIの役割の意味についても論じる。
論文 参考訳(メタデータ) (2023-12-10T23:32:55Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Building Trust in Conversational AI: A Comprehensive Review and Solution
Architecture for Explainable, Privacy-Aware Systems using LLMs and Knowledge
Graph [0.33554367023486936]
我々は150以上の大規模言語モデル(LLM)の詳細なレビューを提供する包括的ツールを紹介する。
本稿では,LLMの言語機能と知識グラフの構造的ダイナミクスをシームレスに統合する機能的アーキテクチャを提案する。
我々のアーキテクチャは言語学の洗練と実情の厳密さを巧みにブレンドし、ロールベースアクセス制御によるデータセキュリティをさらに強化する。
論文 参考訳(メタデータ) (2023-08-13T22:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。